JP7065545B1 - Live distribution system, live distribution method, and live distribution program - Google Patents
Live distribution system, live distribution method, and live distribution program Download PDFInfo
- Publication number
- JP7065545B1 JP7065545B1 JP2021185206A JP2021185206A JP7065545B1 JP 7065545 B1 JP7065545 B1 JP 7065545B1 JP 2021185206 A JP2021185206 A JP 2021185206A JP 2021185206 A JP2021185206 A JP 2021185206A JP 7065545 B1 JP7065545 B1 JP 7065545B1
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- face
- video
- live
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 20
- 238000003672 processing method Methods 0.000 claims abstract description 36
- 238000013500 data storage Methods 0.000 claims abstract description 13
- 238000006243 chemical reaction Methods 0.000 claims abstract description 12
- 238000007726 management method Methods 0.000 claims abstract description 12
- 230000001815 facial effect Effects 0.000 claims abstract description 8
- 230000006870 function Effects 0.000 claims description 28
- 239000003550 marker Substances 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 5
- 238000005315 distribution function Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 abstract description 5
- 238000010801 machine learning Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】配信者と視聴者とがコミュニケーションをとりながらリアルタイムで画像処理方法を決定可能なライブ配信システム、ライブ配信方法、及びライブ配信プログラムを提供する。【解決手段】カメラと、マイクロフォンと、映像調整装置と、映像変換装置と、動画データを視聴者端末へ送信する配信サーバとを備えるライブ配信システムであって、映像変換装置は、映像編集部と、入出力部と、視聴者情報管理部と、視聴者情報記憶部とを備え、映像編集部は、特定の人物の顔画像データを用いて構築された学習モデルを記憶する画像データ記憶部と、動画データに映っている人物の顔の画像を抽出し、学習モデルの、特定の人物の顔の画像と一致する画像を判定する顔画像判定部と、顔の画像にたいして画像処理を行ったのち、データに基づき画像処理の方法を決定する画像処理部と、視聴者端末から送信されたデータに基づき画像処理を行う画像表示部とを備える。【選択図】図5PROBLEM TO BE SOLVED: To provide a live distribution system, a live distribution method, and a live distribution program capable of determining an image processing method in real time while communicating between a distributor and a viewer. SOLUTION: This is a live distribution system including a camera, a microphone, a video adjusting device, a video conversion device, and a distribution server for transmitting video data to a viewer terminal, and the video conversion device is a video editing unit. The video editing unit includes an input / output unit, a viewer information management unit, and a viewer information storage unit, and the video editing unit includes an image data storage unit that stores a learning model constructed using facial image data of a specific person. After extracting the image of the face of the person shown in the video data and performing image processing on the image of the face, the face image judgment unit that determines the image that matches the image of the face of a specific person in the learning model. The image processing unit that determines the image processing method based on the data and the image display unit that performs the image processing based on the data transmitted from the viewer terminal are provided. [Selection diagram] FIG. 5
Description
本発明は、ライブ配信システム、ライブ配信方法、及びライブ配信プログラムに関する。 The present invention relates to a live distribution system, a live distribution method, and a live distribution program.
スポーツ、音楽の演奏等をライブ配信する際、出演者に加えて観客が撮影されていることがある。観客席を撮影する場合、出演者と観客席とが互いに離れていれば、観客の個人が特定できない程度の解像度によって撮影されるなどの措置が取られる。出演者と観客との距離が近い場合など、出演者と観客が同時に映像内に映る場合は、特許文献1及び特許文献2に開示されているように、映像内の特定人物を除く人物の顔画像を画像処理することにより、観客の個人が特定できないようにすることができる。 When live-streaming sports, music performances, etc., the audience may be photographed in addition to the performers. When shooting the audience seats, if the performers and the audience seats are far from each other, measures such as shooting at a resolution that does not allow the individual audience to be identified are taken. When the performer and the audience appear in the image at the same time, such as when the performer and the audience are close to each other, the face of a person other than a specific person in the image is disclosed in Patent Document 1 and Patent Document 2. By image processing the image, it is possible to prevent the individual audience from being identified.
特許文献1及び特許文献2に開示されている方法によれば、画像処理を行わない特定人物、及び画像処理方法は配信者が決定しており、視聴者は配信された映像を視聴するのみであった。 According to the methods disclosed in Patent Document 1 and Patent Document 2, the distributor determines the specific person who does not perform image processing and the image processing method, and the viewer only views the distributed video. there were.
上記問題点を鑑み、本発明は、配信者と視聴者とがコミュニケーションをとりながらリアルタイムで画像処理方法を決定可能なライブ配信システム、ライブ配信方法、及びライブ配信プログラムを提供することを目的とする。 In view of the above problems, it is an object of the present invention to provide a live distribution system, a live distribution method, and a live distribution program capable of determining an image processing method in real time while communicating between a distributor and a viewer. ..
本発明の第1の態様は、ライブを撮影して1又は複数の映像データを生成するための1又は複数のカメラと、ライブの音声を録音して1又は複数の音声データを生成するための1又は複数のマイクロフォンと、1又は複数の映像データ及び又は複数の音声データから動画データを生成する映像調整装置と、動画データを編集する映像変換装置と、編集された動画データを視聴者端末へ送信する配信サーバとを備えるライブ動画を配信するライブ配信システムであって、映像変換装置は、映像編集部と、視聴者端末と、ライブ動画に対するコメントをライブ動画において表現するための情報を含むコメントデータと、顔の画像に対する画像処理の方法をリクエストする情報を含むリクエストデータの送受信をする入出力部と、1又は複数の視聴者の登録と認証を行う視聴者情報管理部と、1又は複数の視聴者の視聴者情報、視聴者ID及びパスワードを記憶する視聴者情報記憶部とを備え、映像編集部は、予め撮影された画像データ内の、1又は複数の特定の人物に関するタグを付与された、1又は複数の特定の人物の顔画像データを用いて構築された学習モデルを記憶する画像データ記憶部と、画像認識により、動画データの画像に映っている1又は複数の人物の顔の画像を抽出し、抽出された1又は複数の顔の画像の中に、学習モデルの、1又は複数の特定の人物の顔の画像と一致する画像があるかどうかを判定する顔画像判定部と、顔画像判定部によって判定された1又は複数の顔の画像のうち、1又は複数の特定の人物の顔の画像と一致しない画像に対して顔の個人を特定することが困難となるように画像処理を行ったのち、視聴者端末から送信されたリクエストデータに基づき画像処理を行う画像処理部と、視聴者端末から送信されたコメントデータに基づきコメントをライブ動画に表示する画像処理を行う画像表示部とを備えることを要旨とする。 A first aspect of the present invention is one or more cameras for shooting live to generate one or more video data, and one or more cameras for recording live audio to generate one or more audio data. A video adjustment device that generates video data from one or more microphones, one or more video data and / or a plurality of audio data, a video conversion device that edits video data, and an edited video data to a viewer terminal. It is a live distribution system that distributes a live video including a distribution server for transmitting, and the video conversion device includes a video editing unit, a viewer terminal, and a comment including information for expressing a comment on the live video in the live video. An input / output unit that sends / receives data and request data including information that requests an image processing method for a face image, and a viewer information management unit that registers and authenticates one or more viewers, and one or more. It is provided with a viewer information storage unit that stores viewer information, a viewer ID, and a password of the viewer, and the video editing unit assigns a tag related to one or a plurality of specific persons in the image data taken in advance. An image data storage unit that stores a learning model constructed using the face image data of one or more specific persons, and the face of one or more persons reflected in the image of the moving image data by image recognition. The face image determination unit that extracts the image of And, among the images of one or more faces determined by the face image determination unit, it becomes difficult to identify the individual face for the image that does not match the image of the face of one or more specific persons. After performing image processing, the image processing unit that performs image processing based on the request data sent from the viewer terminal and the image processing that displays the comment on the live video based on the comment data sent from the viewer terminal. The gist is to provide an image display unit.
本発明の第1の態様において、画像処理は顔の画像に対するモザイク処理であり、画像処理部は、抽出された又は複数の顔の画像のうち、1又は複数の特定の人物の顔の画像と一致しない画像にのみモザイク処理を行ってもよい。 In the first aspect of the present invention, the image processing is a mosaic processing for a face image, and the image processing unit is a face image of one or a plurality of specific persons among the extracted or a plurality of face images. Mosaic processing may be performed only on images that do not match.
本発明の第1の態様において、画像処理部は、抽出された1又は複数の顔の画像のうち、1又は複数の特定の人物の顔の画像と一致する画像と、一致しない画像とは、互いに異なる画像処理を行ってもよい。 In the first aspect of the present invention, the image processing unit determines that, among the extracted images of one or more faces, an image that matches the image of the face of one or more specific persons and an image that does not match the image of the face of one or more specific persons. Image processing different from each other may be performed.
本発明の第1の態様において、画像処理は顔の画像に対するモザイク処理であり、画像処理部は、リクエストデータに基づき、抽出された1又は複数の顔の画像に対して行うモザイク処理のモザイクの粗さを決定してもよい。 In the first aspect of the present invention, the image processing is the mosaic processing for the face image, and the image processing unit performs the mosaic processing for the extracted one or more face images based on the request data. Roughness may be determined.
本発明の第1の態様において、画像処理は顔の画像に対するモザイク処理であり、画像処理部は、リクエストデータに基づき、抽出された1又は複数の顔の画像に対して行うモザイク処理のモザイクの範囲を決定してもよい。 In the first aspect of the present invention, the image processing is the mosaic processing for the face image, and the image processing unit performs the mosaic processing for the extracted one or more face images based on the request data. The range may be determined.
本発明の第1の態様において、画像処理部は、リクエストデータに基づき、抽出された1又は複数の顔の画像のうち、画像処理を行う画像を決定してもよい。 In the first aspect of the present invention, the image processing unit may determine an image to be image-processed from among the extracted one or a plurality of facial images based on the request data.
本発明の第1の態様において、画像処理部による、リクエストデータに基づく画像処理の方法は、課金によって視聴者が決定可能としてもよい。 In the first aspect of the present invention, the image processing method based on the request data by the image processing unit may be determined by the viewer by charging.
本発明の第1の態様において、画像処理部による、リクエストデータに基づく画像処理の方法は、視聴者による多数決によって決定されてもよい。 In the first aspect of the present invention, the method of image processing based on the request data by the image processing unit may be determined by a majority vote by the viewer.
本発明の第1の態様において、視聴者による多数決によって決定される画像処理の方法の選択肢の内容は、画像表示部によってライブ動画に表示された前記コメントにおいて提案され、1又は複数の特定の人物がコメントにおいて提案された選択肢の内容を了承することにより、ライブ動画に提案された選択肢が表示されてもよい。 In the first aspect of the present invention, the content of the image processing method options determined by the majority vote by the viewer is proposed in the comment displayed in the live video by the image display unit, and one or more specific persons. By accepting the content of the proposed options in the comments, the proposed options may be displayed in the live video.
本発明の第1の態様において、画像処理部は、リクエストデータに基づき、抽出された1又は複数の顔の画像のうち、どの顔画像に対して画像処理を行うかを決定してもよい。 In the first aspect of the present invention, the image processing unit may determine which face image to perform image processing on among the extracted one or a plurality of face images based on the request data.
本発明の第1の態様において、データ記憶部は、予め撮影されたマーカーの画像データを用いて構築されたマーカー学習モデルを更に記憶し、画像処理部は、データに基づき、マーカーを装着した人物の顔の画像に対して画像処理を行ってもよい。 In the first aspect of the present invention, the data storage unit further stores the marker learning model constructed by using the image data of the markers taken in advance, and the image processing unit further stores the person wearing the marker based on the data. Image processing may be performed on the image of the face.
本発明の第1の態様において、画像処理部による、リクエストデータに基づく画像処理の方法の決定は、視聴者が所定の条件を満たすことによって可能となってよい。 In the first aspect of the present invention, the image processing unit may determine the method of image processing based on the request data if the viewer satisfies a predetermined condition.
本発明の第2の態様は、視聴者端末にライブ動画を配信するライブ配信方法であって、ライブを撮影して1又は複数の映像データを生成する映像データ生成ステップと、ライブの音声を録音して1又は複数の音声データを生成する音声データ生成ステップと、1又は複数の映像データ及び1又は複数の音声データから動画データを生成する動画データ生成ステップと、動画データを編集する映像編集ステップと、編集された動画データを前記視聴者端末へ送信する配信ステップと、1又は複数の視聴者の視聴者情報、視聴者ID及びパスワードを記憶する視聴者情報記憶ステップと、1又は複数の視聴者の登録と認証を行う視聴者情報管理ステップと、視聴者端末と、ライブ動画に対するコメントをライブ動画において表現するための情報を含むコメントデータと、顔の画像に対する画像処理の方法をリクエストする情報を含むリクエストデータの送受信をする入出力ステップとを備え、映像編集ステップは、画像認識により、動画データの画像に映っている1又は複数の人物の顔の画像を抽出する抽出ステップと、抽出された1又は複数の顔の画像の中に、予め撮影された画像データ内の、1又は複数の特定の人物に関するタグを付与された、1又は複数の特定の人物の顔画像データを用いて構築された学習モデルの、1又は複数の特定の人物の顔の画像と一致する画像があるかどうかを判定する顔画像判定ステップと、画像判定ステップにおいて判定された1又は複数の顔の画像のうち、1又は複数の特定の人物の顔の画像と一致しない画像に対して顔の個人を特定することが困難となるように画像処理を行ったのち、視聴者端末から送信されたリクエストデータに基づき画像処理を行う画像処理ステップと、視聴者端末から送信されたコメントデータに基づきコメントをライブ動画に表示する画像処理を行う画像表示ステップとを備えることを要旨とする。 A second aspect of the present invention is a live distribution method for distributing a live video to a viewer terminal, in which a video data generation step of shooting a live to generate one or a plurality of video data and recording live audio are recorded. An audio data generation step for generating one or more audio data, a video data generation step for generating video data from one or more video data and one or more audio data, and a video editing step for editing video data. A distribution step of transmitting the edited video data to the viewer terminal, a viewer information storage step of storing the viewer information, viewer ID and password of one or more viewers, and one or more viewings. Viewer information management step to register and authenticate a person, comment data including information for expressing a comment on a live video in a live video, and information requesting an image processing method for a face image. The video editing step includes an input / output step for transmitting / receiving request data including the above, and an extraction step for extracting an image of the face of one or more persons reflected in the image of the moving image data by image recognition and an extraction step. Constructed using the face image data of one or more specific persons to which a tag relating to one or more specific persons is attached in the image data taken in advance in the image of one or more faces. Of the face image determination step of determining whether or not there is an image matching the image of the face of one or more specific persons of the learned learning model, and the image of one or more faces determined in the image determination step. Based on the request data sent from the viewer terminal after performing image processing so that it becomes difficult to identify the individual face for the image that does not match the image of the face of one or more specific persons. The gist is to include an image processing step for performing image processing and an image display step for performing image processing for displaying a comment on a live moving image based on comment data transmitted from a viewer terminal.
本発明の第3の態様は、コンピュータに、ライブを撮影して1又は複数の映像データを生成する映像データ生成機能と、ライブの音声を録音して1又は複数の音声データを生成する音声データ生成機能と、1又は複数の映像データ及び1又は複数の音声データから動画データを生成する動画データ生成機能と、動画データを編集する映像編集機能と、編集された動画データを視聴者端末へ送信する配信機能と、1又は複数の視聴者の視聴者情報、視聴者ID及びパスワードを記憶する視聴者情報記憶機能と、1又は複数の視聴者の登録と認証を行う視聴者情報管理機能と、視聴者端末と、ライブ動画に対するコメントをライブ動画において表現するための情報を含むコメントデータと、顔の画像に対する画像処理の方法をリクエストする情報を含むリクエストデータの送受信をする入出力機能とを備え、映像編集機能は、画像認識により、動画データの画像に映っている1又は複数の人物の顔の画像を抽出する抽出機能と、抽出された1又は複数の顔の画像の中に、予め撮影された画像データ内の、1又は複数の特定の人物に関するタグを付与された、又は複数の特定の人物の顔画像データを用いて構築された学習モデルの、又は複数の特定の人物の顔の画像と一致する画像があるかどうかを判定する顔画像判定機能と、顔画像判定機能によって判定された1又は複数の顔の画像のうち、1又は複数の特定の人物の顔の画像と一致しない画像に対して顔の個人を特定することが困難となるように画像処理を行ったのち、視聴者端末から送信されたリクエストデータに基づき画像処理を行う画像処理機能と視聴者端末から送信されたコメントデータに基づきコメントをライブ動画に表示する画像処理を行う画像表示機能とを備えるためのライブ配信プログラムであることを要旨とする。 A third aspect of the present invention is a video data generation function in which a computer captures a live image and generates one or more video data, and audio data that records live audio and generates one or more audio data. Generation function, video data generation function to generate video data from one or more video data and one or more audio data, video editing function to edit video data, and transmission of edited video data to viewer terminal Distribution function, viewer information storage function to store viewer information, viewer ID and password of one or more viewers, viewer information management function to register and authenticate one or more viewers, Equipped with a viewer terminal, comment data including information for expressing comments on live videos in live videos, and input / output functions for sending and receiving request data including information requesting image processing methods for facial images. , The video editing function is an extraction function that extracts the image of the face of one or more people reflected in the image of the moving image data by image recognition, and the image of one or more faces that is extracted in advance. Of a learning model that is tagged with one or more specific persons in the image data, or that is constructed using facial image data of a plurality of specific persons, or of the faces of a plurality of specific persons. Of the face image determination function that determines whether there is an image that matches the image and the image of one or more faces determined by the face image determination function, the image does not match the image of the face of one or more specific persons. After performing image processing so that it is difficult to identify the individual face of the image, the image processing function that performs image processing based on the request data transmitted from the viewer terminal and the image processing function transmitted from the viewer terminal The gist is that it is a live distribution program to have an image display function that performs image processing to display comments on live moving images based on comment data.
本発明によれば、配信者と視聴者とがコミュニケーションをとりながらリアルタイムで画像処理方法を決定可能なライブ配信システム、ライブ配信方法、及びライブ配信プログラムを提供できる。 According to the present invention, it is possible to provide a live distribution system, a live distribution method, and a live distribution program that enable a distributor and a viewer to determine an image processing method in real time while communicating with each other.
次に、図面を参照して、本発明の実施形態を説明する。実施形態に係る図面の記載において、同一又は類似の部分には同一又は類似の符号を付している。但し、図面は模式的なものである。 Next, an embodiment of the present invention will be described with reference to the drawings. In the description of the drawings according to the embodiment, the same or similar parts are designated by the same or similar reference numerals. However, the drawings are schematic.
又、実施形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、各構成要素の構成や配置、レイアウト等を下記のものに特定するものでない。本発明の技術的思想は、特許請求の範囲に記載された請求項が規定する技術的範囲内において、種々の変更を加えることができる。 Further, the embodiment illustrates an apparatus or method for embodying the technical idea of the present invention, and the technical idea of the present invention describes the configuration, arrangement, layout, etc. of each component as follows. It is not specific to things. The technical idea of the present invention may be modified in various ways within the technical scope specified by the claims described in the claims.
(実施形態)
本発明の第1の実施形態に係るライブ配信システムを以下に説明する。図1に、本実施形態に係るライブ配信システム10の構成の一例を示す。図1に示すライブ配信システム10は、第1カメラ101a、第2カメラ101b、第3カメラ101c、第1マイクロフォン102a、第2マイクロフォン102b、第3マイクロフォン102c、映像調整装置103、映像変換装置104、配信サーバ105、ネットワーク106、視聴者端末107a、107b、107cから構成される。
(Embodiment)
The live distribution system according to the first embodiment of the present invention will be described below. FIG. 1 shows an example of the configuration of the
1又は複数の視聴者端末107a、107b、107cは、モバイル端末、パーソナルコンピュータ等、視聴者がライブ配信システムからネットワーク106を介して動画データを受信して閲覧し、かつ映像変換装置104とデータの送受信を行うことのできる端末である。
In the one or a plurality of
映像変換装置104は、パーソナルコンピュータ(PC)、メインフレーム、ワークステーション、クラウドコンピューティングシステム等、種々の電子計算機(計算リソース)であり、ディスプレイ、その他、入力用のキーボード、マウス等が接続されている。ネットワーク106は、インターネット、光ネットワーク、電話回線網等、いかなる通信網であってもよい。
The
図2に、映像調整装置103の構成の一例を示す。図2に示す映像調整装置103は、第1映像データ変換器201a、第2映像データ変換器201b、第3映像データ変換器201c、第1音声データ変換器202a、第2音声データ変換器202b、第3音声データ変換器202c、第1合成器203a、第2合成器203b、第3合成器203c、スイッチャー204、エンコーダー205、ストリーミングサーバ206から構成される。
FIG. 2 shows an example of the configuration of the
図3に、映像変換装置104の構成の一例を示す。図3に示す映像変換装置104は、映像編集部301、入出力部302、視聴者情報管理部303、視聴者情報記憶部304から構成される。
FIG. 3 shows an example of the configuration of the
ライブ会場において、出演者によるライブパフォーマンスが行われ、第1カメラ101a、第2カメラ101b、第3カメラ101cによる撮影が行われ、それぞれのカメラによって第1映像データ、第2映像データ、第3映像データが生成される。同様に、第1マイクロフォン102a、第2マイクロフォン102b、第3マイクロフォン102cによる録音が行われ、それぞれのマイクロフォンによって第1音声データ、第2音声データ、第3音声データが生成される。
At the live venue, a live performance is performed by the performers, shooting is performed by the
第1カメラ101a、第2カメラ101b、第3カメラ101cによって得られた第1映像データ、第2映像データ、第3映像データは、それぞれ、第1映像データ変換器201a、第2映像データ変換器201b、第3映像データ変換器201cによってアナログデータからデジタルデータに変換され、さらに、圧縮処理がなされる。第1マイクロフォン102a、第2マイクロフォン102b、第3マイクロフォン102cによって得られた第1音声データ、第2音声データ、第33音声データについても同様に、それぞれ、第1音声データ変換器202a、第2音声データ変換器202b、第3音声データ変換器202cによってアナログデータからデジタルデータに変換され、さらに、圧縮処理がなされる。
The first video data, the second video data, and the third video data obtained by the
これらの第1~第3映像データ及び第1~第3音声データは、それぞれ、第1合成器203a、第2合成器203b、第3合成器203cにおいて同期がとられ、合成されて、第1動画データ、第2動画データ、第3動画データが生成される。
The first to third video data and the first to third audio data are synchronized and combined in the
第1動画データ、第2動画データ、第3動画データは、それぞれ、スイッチャー204に入力され、スイッチャー204において、配信される動画が選択される。第1動画データ、第2動画データ、第3動画データのうち、配信される動画として選択された動画データは、エンコーダー205及びストリーミングサーバ206において、ストリーミング形式のデータに変換される。
The first moving image data, the second moving image data, and the third moving image data are each input to the
ストリーミング形式に変換された動画データは、映像編集部301において編集がなされたのち、配信サーバ105から、ネットワーク106を介して、視聴者端末107a、107b、107cへ配信される。
The moving image data converted into the streaming format is edited by the
図4に、映像編集部301の構成の一例を示す。図4に示す映像編集部301は、顔画像判定部401、画像データ記憶部402、画像処理部403、画像表示部404とから構成される。
FIG. 4 shows an example of the configuration of the
顔画像判定部401は、画像認識により、動画データの画像に映っている全ての人物の顔の画像を抽出し、抽出された顔の画像の中に、画像データ記憶部402に記憶されている、1又は複数の特定の人物の顔の画像と一致する画像があるかどうかを判定する。
The face
画像データ記憶部402は、顔画像判定部401が画像認識を行う際に用いられる機械学習モデルを記憶する。この機械学習モデルは、予め学習されたモデルであり、本実施形態において、予め撮影された画像データ内の、1又は複数の特定の人物に関するタグを付与された、1又は複数の特定の人物の顔画像データを用いて構築されたものである。本実施形態において、1又は複数の特定の人物とは、例えば、ライブパフォーマンスを行う出演者、司会者、等である。
The image
画像処理部403は、顔画像判定部401によって抽出された顔の画像に対して、画像処理を行う。ここで、本実施形態において、画像処理部403によって行われる画像処理とは、顔画像判定部401によって抽出された顔の画像の少なくとも一部に対して、モザイクを掛ける、ぼかす、他の画像で覆う等、個人の特定が困難となるように加工することを指す。
The
本実施形態においては、動画配信の開始時点で、顔画像判定部401は、抽出された顔の画像の中の、1又は複数の特定の人物の顔の画像と一致すると判定された顔の画像に対しては、モザイク処理を行わない等、1又は複数の特定の人物を除く人物の顔画像とは異なる処理を行うように設定される。
In the present embodiment, at the start of video distribution, the face
視聴者は視聴者端末107a、107b、107cにおいて、本実施形態に係るライブ配信システムによって配信されるライブ動画を視聴し、ライブ動画に対するコメント、感想、メッセージ等をライブ動画において表現するための情報等を含むコメントデータを視聴者端末107a、107b、107cから入出力部302に送信することができる。
The viewer watches the live video distributed by the live distribution system according to the present embodiment on the
コメントデータは、視聴者端末107a、107b、107cから、ネットワーク106を介して、映像変換装置104の入出力部302に送信されたのち、画像表示部404に送信される。画像表示部404は、コメントデータに基づき、コメント、感想、メッセージ等がライブ動画の画面のコメント欄に表示されるように画像処理を行う。
The comment data is transmitted from the
視聴者、及び、司会者、出演者、観客等の、ライブ動画に映る人物は、画像表示部404によってライブ動画の画面のコメント欄に表示されるコメントの内容を、ライブ会場にライブ動画の画面を表示するディスプレイを設置する等の方法によって知ることができる。コメントの内容に対して、ライブ動画に映る人物が応答することによって、視聴者とライブ動画に映る人物とが、コミュニケーションをとることができる。
For viewers, moderators, performers, spectators, and other people who appear in the live video, the content of the comment displayed in the comment field of the live video screen by the
視聴者は、更に、視聴者端末107a、107b、107cにおいて、本実施形態に係るライブ動画を視聴し、画像処理部403が顔画像判定部401によって抽出された顔の画像に対してモザイク処理等を行う際の、処理方法をリクエストする情報を含むリクエストデータを視聴者端末107a、107b、107cから入出力部302に送信することができる。
The viewer further watches the live moving image according to the present embodiment on the
リクエストデータは、視聴者端末107a、107b、107cから入出力部302に送信されたのち、画像処理部403に送信される。画像処理部403は、リクエストデータに含まれる、処理方法をリクエストする情報に基づき、顔画像判定部401によって抽出された顔の画像に対してモザイク処理等を行う。
The request data is transmitted from the
視聴者によってリクエストされる、画像処理部403が顔画像判定部401によって抽出された顔の画像に対してモザイク処理等を行う際の、処理方法としては、モザイク処理を行う人物の顔の画像を指定してもよい。本実施形態において、動画配信開始時点で、顔画像判定部401によって抽出された顔の画像に対して、出演者および司会者等、画像データ記憶部402に記憶されている、1又は複数の特定の人物の顔の画像と一致しない画像にのみモザイク処理を行うとするが、視聴者のリクエストにより、例えば、出演者、司会者等、1又は複数の特定の人物の顔の画像にもモザイク処理を行うとしてもよい。
When the
例えば、ライブの出演者、司会者等、1又は複数の特定の人物が、視聴者の好まないパフォーマンスを行ったとき、そのパフォーマンスを行った特定の人物の顔の画像に対して、画像処理部403によってモザイク処理をするように視聴者がリクエストする等、視聴者の反応や要望をリアルタイムに反映させることができる。 For example, when one or more specific persons such as a live performer, a moderator, etc. perform a performance that the viewer does not like, the image processing unit for the image of the face of the specific person who performed the performance. The reaction and request of the viewer can be reflected in real time, such as the viewer requesting the mosaic processing by the 403.
視聴者によってリクエストされる、画像処理部403が顔画像判定部401によって抽出された顔の画像に対してモザイク処理等を行う際の、他の処理方法としては、例えば、モザイクの粗さを指定することができる。モザイクの粗さの指定方法としては、例えば、各モザイクの1単位のサイズを数値で指定してもよい。
As another processing method when the
顔の画像に掛けるモザイクの粗さは、粗さが小さい程、顔の個人を特定しやすく、粗さが大きい程、顔の個人を特定することが困難になる。例えば、ライブ動画の画像に映っている観客の顔の画像に掛けられているモザイクの粗さが十分でなく、観客の個人が特定される可能性がある場合、視聴者は、観客の個人が特定されないように、モザイクの粗さを大きくするようにリクエストすることができる。また、例えば、特定の人物の顔の画像に対して、画像処理部403によってモザイク処理を行う場合、特定の人物に欠けるモザイクの粗さを小さくし、観客とは区別できるようにすることができる。
As for the roughness of the mosaic applied to the face image, the smaller the roughness, the easier it is to identify the individual face, and the larger the roughness, the more difficult it is to identify the individual face. For example, if the mosaic on the image of the audience's face in the image of the live video is not sufficiently coarse and the individual of the audience may be identified, the viewer may see the individual of the audience. You can request to increase the roughness of the mosaic so that it is not specified. Further, for example, when the
また、顔画像判定部401によって抽出された顔の画像に対してモザイク処理等を行う際の、他の処理方法としては、モザイク処理等を行う範囲を指定することができる。モザイク処理を行う範囲を広く指定すると、顔の画像だけでなく、例えば、モザイク処理をする人物の首、衣服の部分等、広い範囲でモザイク処理がなされる。モザイク処理を行う範囲を狭く指定すると、顔の画像の一部だけにモザイク処理がなされる。モザイク処理を行う範囲を指定する方法としては、モザイク処理をする範囲の大きさ、位置を指定してもよい。例えば、眼だけにモザイク処理をする、等の方法である。
Further, as another processing method when performing mosaic processing or the like on the face image extracted by the face
顔の画像に掛けるモザイク処理等の範囲の広さは、範囲が小さい程、顔の個人を特定しやすく、範囲が大きい程、顔の個人を特定することが困難になる。モザイクの粗さを指定する場合と同様、観客の個人が特定されないように、モザイクの範囲を大きくするようにリクエストすることができ、また、特定の人物に欠けるモザイクの範囲を小さくし、観客とは区別できるようにすることができる。 As for the width of the range such as the mosaic processing applied to the face image, the smaller the range, the easier it is to identify the individual face, and the larger the range, the more difficult it is to identify the individual face. As with the case of specifying the roughness of the mosaic, you can request to increase the range of the mosaic so that the individual spectator is not identified, and you can reduce the range of the mosaic lacking a specific person with the audience. Can be made distinguishable.
顔画像判定部401によって抽出された顔の画像に対してモザイク処理等を行う際の、他の処理方法としては、モザイク処理として指定部分にモザイクを掛ける方法のほかに、例えば、他の画像によって覆い隠す方法がある。他の画像としては、他の人物の顔や、イラスト等が挙げられ、他の画像を視聴者が指定できるようにしてもよい。
As another processing method when performing mosaic processing or the like on the face image extracted by the face
例えば、ライブ動画の出演者等、特定の人物が行ったパフォーマンスに応じた画像によって、特定の人物の顔の画像を覆い隠す等、視聴者の意向をリアルタイムにライブに反映させることにより、ライブをより興味を引き付けるものとすることができる。 For example, by reflecting the viewer's intention in real time, such as hiding the image of the face of a specific person with an image according to the performance performed by a specific person such as a performer of a live video, the live can be performed. It can be more interesting.
顔画像判定部401によって抽出された顔の画像に対してモザイク処理等を行う際の、他の処理方法としては、モザイク処理として指定部分にモザイクを掛ける代わりに、ぼかしを入れる方法であってもよい。
As another processing method when performing mosaic processing or the like on the face image extracted by the face
また、ライブをより興味を引き付けるものとするために、リクエスト内容は、視聴者の多数決によって決定されてもよい。ライブ動画の画面内に、例えば、モザイク処理の方法について1又は複数の選択肢が表示され、各視聴者が、視聴者端末107a、107b、107cから入出力部302に、1又は複数の選択肢のうち希望するモザイク処理方法を送信してもよい。
Also, in order to make the live more interesting, the content of the request may be decided by a majority vote of the viewers. For example, one or a plurality of options for the mosaic processing method are displayed in the screen of the live video, and each viewer receives one or a plurality of options from the
上記のように、リクエスト内容を視聴者の多数決によって決定する際、モザイク処理の方法についての1又は複数の選択肢は、ライブ動画の画面のコメント欄に表示される視聴者から送信されたコメントによって選出されてもよい。例えば、視聴者から選択肢の内容について提案するコメントがコメント欄に表示され、司会者が選択肢の内容についての提案を了承すること等により、提案された選択肢の内容が採用され、ライブ動画の画面内に、採用された選択肢の内容が表示されてもよい。 As mentioned above, when the content of the request is decided by the majority of the viewers, one or more options for the mosaic processing method are selected by the comments sent from the viewers displayed in the comment field of the live video screen. May be done. For example, a comment that the viewer proposes about the content of the option is displayed in the comment column, and the moderator approves the proposal about the content of the option, so that the content of the proposed option is adopted and the content of the proposed option is adopted in the live video screen. The contents of the adopted options may be displayed in.
また、例えば、観客等、1又は複数の特定の人物以外の人物のうちの特定の顔の画像に対する画像処理方法を、視聴者のリクエストによって決定してもよい。この場合、画像データ記憶部402に記憶されていない顔画像に対する画像処理であるので、例えば、帽子、名札、番号札等をマーカーとし、予め撮影されたマーカーの画像データを用いて構築されたマーカー機械学習モデルを画像データ記憶部402に記憶させておき、マーカーを観客等に装着させ、マーカーに基づき、画像処理を行う人物を特定するようにしてもよい。
Further, for example, an image processing method for an image of a specific face among a person other than one or a plurality of specific persons such as an audience may be determined at the request of the viewer. In this case, since the image processing is performed on the face image that is not stored in the image
視聴者が、モザイク処理等を行う際の、処理方法をリクエストする情報を含むリクエストデータを視聴者端末107a、107b、107cから入出力部302に送信する際、配信者が、リクエストを希望する視聴者に対して課金することによってリクエストを可能としてもよい。また、リクエスト内容によって、課金の金額が決定されてもよく、課金額によって、リクエストが通るかどうかが決定されてもよい。
When the viewer transmits request data including information requesting a processing method from the
視聴者による、モザイク処理等を行う際の、処理方法のリクエストは、対価の支払いによって可能となるとしてもよい。又は、例えば、出演者に関連した物品等を購入し、購入した物品や購入金額等に応じて、処理方法のリクエストが可能となるようにしてもよい。あるいは、動画配信中に、出演者、司会者が視聴者とコミュニケーションをとり、コミュニケーションの内容に基づき、所定の条件を満たす等、視聴者が配信される動画を閲覧中に、特定の条件を満たすことによって処理方法のリクエストが可能となるようにしてもよい。出演者、司会者が視聴者とコミュニケーションをとり、コミュニケーションの内容に基づき、所定の条件を満たす場面としては、例えば、ライブ動画において、司会者が視聴者に対して質問等を行い、視聴者が司会者の質問に対してメッセージで回答し、司会者が視聴者の回答に対して適切な回答であると判断してその旨を本実施形態に係るライブ配信システムに入力すること、等が挙げられる。 A viewer may request a processing method when performing mosaic processing or the like by paying a consideration. Alternatively, for example, an article related to the performer may be purchased, and a processing method may be requested according to the purchased article, the purchase price, or the like. Alternatively, during video distribution, the performer and the moderator communicate with the viewer, and based on the content of the communication, certain conditions are met while the viewer is viewing the video to be distributed. By doing so, it may be possible to request a processing method. As a scene where the performer and the moderator communicate with the viewer and satisfy the predetermined conditions based on the content of the communication, for example, in a live video, the moderator asks a question to the viewer and the viewer asks a question. Answering the question of the moderator with a message, determining that the moderator is an appropriate answer to the answer of the viewer, and inputting that fact into the live distribution system according to the present embodiment, etc. Be done.
本実施形態に係るライブ配信システムにおいて、視聴者がモザイク処理等を行う際の処理方法をリクエストする場合、視聴者は、前もってライブ配信システムに視聴者登録を行う。視聴者登録を行う際は、視聴者によって、視聴者端末107a、107b、107cから、ネットワーク106及び入出力部302を介して、視聴者情報管理部303へ視聴者登録を行うための視聴者情報が送信される。視聴者情報管理部303は、受信した視聴者情報をもとに、視聴者IDとパスワードを生成し、視聴者情報記憶部304に視聴者情報、視聴者ID及びパスワードを記憶させ、視聴者ID及びパスワードを、視聴者端末107a、107b、107cに送信する。視聴者は、視聴者ID及びパスワードを用いて視聴者情報管理部303によって認証を受けることによって、処理方法のリクエストが可能となる。
In the live distribution system according to the present embodiment, when the viewer requests a processing method when performing mosaic processing or the like, the viewer registers the viewer in the live distribution system in advance. When registering a viewer, the viewer information for registering the viewer from the
図5及び図6のフローチャートを参照しながら、本実施形態に係るライブ配信方法を説明する。なお、図5及び図6のフロー開始時点で視聴者登録及び視聴者認証はすでに行われているものとする。 The live distribution method according to the present embodiment will be described with reference to the flowcharts of FIGS. 5 and 6. It is assumed that the viewer registration and the viewer authentication have already been performed at the start of the flow of FIGS. 5 and 6.
図5に示すフローは、ライブの動画が撮影されてから視聴者端末107a、107b、107cへ配信されるまでのフローである。
The flow shown in FIG. 5 is a flow from the shooting of the live moving image to the distribution to the
ステップS501において、第1~第3カメラ101a~101cによる撮影、及び第1~第3マイクロフォン102a~102cによる録音が行われる。
In step S501, shooting by the first to
ステップS502において、第1~第3映像データ変換器201a~201c、第1~第3音声データ変換器202a~202cによって、第1~第3動画データが生成される。
In step S502, the first to third moving image data are generated by the first to third
ステップS503において、スイッチャー204によって、第1~第3動画データの中から、配信される動画が選択され、選択された動画データが、エンコーダー205及びストリーミングサーバ206によって、ストリーミング形式のデータに変換される。
In step S503, the
ステップS504において、顔画像判定部401が、画像認識により、動画データの画像に映っている全ての人物の顔の画像を抽出する。
In step S504, the face
ステップS505において、顔画像判定部401が、抽出された全ての人物の顔の画像の中に、画像データ記憶部402に記憶されている、1又は複数の特定の人物の顔の画像と一致する画像があるかどうかを判定する。
In step S505, the face
ステップS506において、画像処理部403は、顔画像判定部401によって抽出された全ての人物の顔のうち、条件に適合する人物の顔の画像に対して、モザイク処理等を行う。
In step S506, the
ステップS507において、編集された動画データが、配信サーバ105から、ネットワーク106を介して、視聴者端末107a、107b、107cへ配信される。
In step S507, the edited moving image data is distributed from the
図6に示すフローは、視聴者端末107a、107b、107cへライブ動画が配信されてから、視聴者によってリクエストされた顔の画像に対するモザイク処理方法が実行された動画が配信されるまでのフローである。
The flow shown in FIG. 6 is a flow from the distribution of the live video to the
ステップS601において、画像処理部403が顔画像判定部401によって抽出された顔の画像に対してモザイク処理等を行う際の、処理方法をリクエストする情報を含むリクエストデータが視聴者端末107a、107b、107cから入出力部302へ送信される。
In step S601, request data including information requesting a processing method when the
ステップS602において、入出力部302は、リクエストデータを受信すると、リクエストデータを画像処理部403に送信する。
In step S602, when the input /
ステップS603において、画像処理部403が、リクエストデータに含まれる、処理方法をリクエストする情報に基づき、顔画像判定部401によって抽出された顔の画像に対してモザイク処理等を行う。
In step S603, the
以上、本発明はここでは記載していない様々な実施形態等を含むことは勿論である。したがって、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。 As described above, it goes without saying that the present invention includes various embodiments not described here. Therefore, the technical scope of the present invention is defined only by the matters specifying the invention relating to the reasonable claims from the above description.
10 ライブ配信システム
101a 第1カメラ
101b 第2カメラ
101c 第3カメラ
102a 第1マイクロフォン
102b 第2マイクロフォン
102c 第3マイクロフォン
103 映像調整装置
104 映像変換装置
105 配信サーバ
106 ネットワーク
107a、107b、107c 視聴者端末
201a 第1映像データ変換器
201b 第2映像データ変換器
201c 第3映像データ変換器
202a 第1音声データ変換器
202b 第2音声データ変換器
202c 第3音声データ変換器
203a 第1合成器
203b 第2合成器
203c 第3合成器
204 スイッチャー
205 エンコーダー
206 ストリーミングサーバ
301 映像編集部
302 入出力部
303 視聴者情報管理部
304 視聴者情報記憶部
401 顔画像判定部
402 画像データ記憶部
403 画像処理部
404 画像表示部
10
Claims (14)
前記ライブの音声を録音して1又は複数の音声データを生成するための1又は複数のマイクロフォンと、
前記1又は複数の映像データ及び前記1又は複数の音声データから動画データを生成する映像調整装置と、
前記動画データを編集する映像変換装置と、
編集された前記動画データを視聴者端末へ送信する配信サーバと
を備えるライブ動画を配信するライブ配信システムであって、前記映像変換装置は、
映像編集部と、
前記視聴者端末と、前記ライブ動画に対するコメントを前記ライブ動画において表現するための情報を含むコメントデータと、顔の画像に対する画像処理の方法をリクエストする情報を含むリクエストデータの送受信をする入出力部と、
1又は複数の視聴者の登録と認証を行う視聴者情報管理部と、
前記1又は複数の視聴者の視聴者情報、視聴者ID及びパスワードを記憶する視聴者情報記憶部と
を備え、前記映像編集部は、
予め撮影された画像データ内の、1又は複数の特定の人物に関するタグを付与された、1又は複数の特定の人物の顔画像データを用いて構築された学習モデルを記憶する画像データ記憶部と、
画像認識により、前記動画データの画像に映っている1又は複数の人物の顔の画像を抽出し、抽出された前記1又は複数の顔の画像の中に、前記学習モデルの、前記1又は複数の特定の人物の顔の画像と一致する画像があるかどうかを判定する顔画像判定部と、
前記顔画像判定部によって判定された前記1又は複数の顔の画像のうち、前記1又は複数の特定の人物の顔の画像と一致しない画像に対して顔の個人を特定することが困難となるように画像処理を行ったのち、前記視聴者端末から送信された前記リクエストデータに基づき画像処理を行う画像処理部と、
前記視聴者端末から送信された前記コメントデータに基づき前記コメントを前記ライブ動画に表示する画像処理を行う画像表示部と
を備えることを特徴とするライブ配信システム。 One or more cameras for shooting live and generating one or more video data,
With one or more microphones for recording the live audio and generating one or more audio data.
A video adjustment device that generates video data from the one or more video data and the one or more audio data, and
A video converter that edits the video data, and
The video conversion device is a live distribution system that distributes a live video including a distribution server that transmits the edited video data to a viewer terminal.
With the video editorial department
An input / output unit that sends and receives the viewer terminal, comment data including information for expressing a comment on the live video in the live video, and request data including information requesting an image processing method for a face image. When,
The Viewer Information Management Department, which registers and authenticates one or more viewers,
The video editing unit includes a viewer information storage unit that stores viewer information, viewer IDs, and passwords of the one or more viewers.
An image data storage unit that stores a learning model constructed using facial image data of one or more specific persons to which tags related to one or more specific persons are attached in the image data taken in advance. ,
By image recognition, the images of the faces of one or more people appearing in the image of the moving image data are extracted, and the one or more of the learning model is included in the extracted images of the one or more faces. A face image determination unit that determines whether there is an image that matches the image of the face of a specific person,
Among the images of the one or a plurality of faces determined by the face image determination unit, it becomes difficult to identify an individual face for an image that does not match the image of the face of the one or a plurality of specific persons. After performing image processing as described above, an image processing unit that performs image processing based on the request data transmitted from the viewer terminal, and an image processing unit.
A live distribution system including an image display unit that performs image processing for displaying the comment in the live moving image based on the comment data transmitted from the viewer terminal.
前記画像処理部は、前記リクエストデータに基づき、マーカーを装着した人物の顔の画像に対して画像処理を行うことを特徴とする請求項1に記載のライブ配信システム。 The image data storage unit further stores a marker learning model constructed using image data of markers taken in advance.
The live distribution system according to claim 1, wherein the image processing unit performs image processing on an image of a face of a person wearing a marker based on the request data.
ライブを撮影して1又は複数の映像データを生成する映像データ生成ステップと、
前記ライブの音声を録音して1又は複数の音声データを生成する音声データ生成ステップと、
前記1又は複数の映像データ及び前記1又は複数の音声データから動画データを生成する動画データ生成ステップと、
前記動画データを編集する映像編集ステップと、
編集された前記動画データを前記視聴者端末へ送信する配信ステップと、
1又は複数の視聴者の視聴者情報、視聴者ID及びパスワードを記憶する視聴者情報記憶ステップと、
前記1又は複数の視聴者の登録と認証を行う視聴者情報管理ステップと、
前記視聴者端末と、前記ライブ動画に対するコメントを前記ライブ動画において表現するための情報を含むコメントデータと、顔の画像に対する画像処理の方法をリクエストする情報を含むリクエストデータの送受信をする入出力ステップと、
を備え、前記映像編集ステップは、
画像認識により、前記動画データの画像に映っている1又は複数の人物の顔の画像を抽出する抽出ステップと、
抽出された前記1又は複数の顔の画像の中に、予め撮影された画像データ内の、1又は複数の特定の人物に関するタグを付与された、前記1又は複数の特定の人物の顔画像データを用いて構築された学習モデルの、前記1又は複数の特定の人物の顔の画像と一致する画像があるかどうかを判定する顔画像判定ステップと、
前記顔画像判定ステップにおいて判定された前記1又は複数の顔の画像のうち、前記1又は複数の特定の人物の顔の画像と一致しない画像に対して顔の個人を特定することが困難となるように画像処理を行ったのち、前記視聴者端末から送信された前記リクエストデータに基づき画像処理を行う画像処理ステップと、
前記視聴者端末から送信された前記コメントデータに基づき前記コメントを前記ライブ動画に表示する画像処理を行う画像表示ステップと
を備えることを特徴とするライブ配信方法。 It is a live distribution method that distributes live video to viewer terminals.
A video data generation step that shoots a live and generates one or more video data,
An audio data generation step of recording the live audio to generate one or more audio data,
A moving image data generation step for generating moving image data from the one or more video data and the one or more audio data,
A video editing step for editing the video data, and
A distribution step of transmitting the edited video data to the viewer terminal, and
A viewer information storage step for storing viewer information, viewer IDs and passwords of one or more viewers, and
The viewer information management step for registering and authenticating one or more viewers,
An input / output step for transmitting and receiving comment data including information for expressing a comment for the live video in the live video and request data including information for requesting an image processing method for a face image with the viewer terminal. When,
The video editing step is
An extraction step of extracting an image of the face of one or more people reflected in the image of the moving image data by image recognition, and an extraction step.
In the extracted image of the one or more faces, the face image data of the one or more specific persons is tagged with respect to one or more specific persons in the image data taken in advance. A face image determination step for determining whether or not there is an image that matches the image of the face of one or more specific persons in the learning model constructed using the above.
Among the images of the one or a plurality of faces determined in the face image determination step, it becomes difficult to identify an individual face for an image that does not match the image of the face of the one or a plurality of specific persons. After performing image processing as described above, an image processing step of performing image processing based on the request data transmitted from the viewer terminal, and an image processing step.
A live distribution method comprising: an image display step of performing image processing for displaying the comment in the live moving image based on the comment data transmitted from the viewer terminal.
ライブを撮影して1又は複数の映像データを生成する映像データ生成機能と、
前記ライブの音声を録音して1又は複数の音声データを生成する音声データ生成機能と、
前記1又は複数の映像データ及び前記1又は複数の音声データから動画データを生成する動画データ生成機能と、
前記動画データを編集する映像編集機能と、
編集された前記動画データを視聴者端末へ送信する配信機能と、
1又は複数の視聴者の視聴者情報、視聴者ID及びパスワードを記憶する視聴者情報記憶機能と、
前記1又は複数の視聴者の登録と認証を行う視聴者情報管理機能と、
前記視聴者端末と、ライブ動画に対するコメントを前記ライブ動画において表現するための情報を含むコメントデータと、顔の画像に対する画像処理の方法をリクエストする情報を含むリクエストデータの送受信をする入出力機能と、
を備え、前記映像編集機能は、
画像認識により、前記動画データの画像に映っている1又は複数の人物の顔の画像を抽出する抽出機能と、
抽出された前記1又は複数の顔の画像の中に、予め撮影された画像データ内の、1又は複数の特定の人物に関するタグを付与された、前記1又は複数の特定の人物の顔画像データを用いて構築された学習モデルの、前記1又は複数の特定の人物の顔の画像と一致する画像があるかどうかを判定する顔画像判定機能と、
前記顔画像判定機能によって判定された前記1又は複数の顔の画像のうち、前記1又は複数の特定の人物の顔の画像と一致しない画像に対して顔の個人を特定することが困難となるように画像処理を行ったのち、前記視聴者端末から送信された前記リクエストデータに基づき画像処理を行う画像処理機能と、
前記視聴者端末から送信された前記コメントデータに基づき前記コメントを前記ライブ動画に表示する画像処理を行う画像表示機能と
を備えることを実現させるためのライブ配信プログラム。
On the computer
A video data generation function that shoots a live concert and generates one or more video data,
An audio data generation function that records the live audio and generates one or more audio data,
A video data generation function that generates video data from the one or more video data and the one or more audio data, and
A video editing function that edits the video data, and
A distribution function that sends the edited video data to the viewer terminal,
A viewer information storage function that stores viewer information, viewer IDs, and passwords of one or more viewers, and
The viewer information management function that registers and authenticates one or more viewers, and
The viewer terminal, an input / output function for transmitting and receiving comment data including information for expressing a comment on a live video in the live video, and request data including information requesting an image processing method for a face image. ,
The video editing function is equipped with
An extraction function that extracts images of the faces of one or more people reflected in the image of the moving image data by image recognition, and an extraction function.
In the extracted image of the one or more faces, the face image data of the one or more specific persons is tagged with respect to one or more specific persons in the image data taken in advance. A face image determination function that determines whether or not there is an image that matches the image of the face of one or more specific persons in the learning model constructed using the above.
Among the images of the one or a plurality of faces determined by the face image determination function, it becomes difficult to identify an individual face for an image that does not match the image of the face of the one or a plurality of specific persons. An image processing function that performs image processing based on the request data transmitted from the viewer terminal after performing image processing as described above.
A live distribution program for realizing an image display function that performs image processing for displaying the comment in the live moving image based on the comment data transmitted from the viewer terminal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021185206A JP7065545B1 (en) | 2021-11-12 | 2021-11-12 | Live distribution system, live distribution method, and live distribution program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021185206A JP7065545B1 (en) | 2021-11-12 | 2021-11-12 | Live distribution system, live distribution method, and live distribution program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7065545B1 true JP7065545B1 (en) | 2022-05-12 |
JP2023072567A JP2023072567A (en) | 2023-05-24 |
Family
ID=81584945
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021185206A Active JP7065545B1 (en) | 2021-11-12 | 2021-11-12 | Live distribution system, live distribution method, and live distribution program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7065545B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7375241B1 (en) | 2023-03-17 | 2023-11-07 | 株式会社ドワンゴ | Content management system, content management method, content management program, and user terminal |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019160287A (en) * | 2018-03-08 | 2019-09-19 | 株式会社リコー | Server device, client terminal, information processing method, and program |
JP2021016121A (en) * | 2019-07-16 | 2021-02-12 | キヤノンマーケティングジャパン株式会社 | Image provision system |
-
2021
- 2021-11-12 JP JP2021185206A patent/JP7065545B1/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019160287A (en) * | 2018-03-08 | 2019-09-19 | 株式会社リコー | Server device, client terminal, information processing method, and program |
JP2021016121A (en) * | 2019-07-16 | 2021-02-12 | キヤノンマーケティングジャパン株式会社 | Image provision system |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7375241B1 (en) | 2023-03-17 | 2023-11-07 | 株式会社ドワンゴ | Content management system, content management method, content management program, and user terminal |
Also Published As
Publication number | Publication date |
---|---|
JP2023072567A (en) | 2023-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7508535B2 (en) | Stand alone multimedia printer with user interface for allocating processing | |
US7528976B2 (en) | Stand alone printer with hardware/software interfaces for sharing multimedia processing | |
US8363056B2 (en) | Content generation system, content generation device, and content generation program | |
CN113542624A (en) | Method and device for generating commodity object explanation video | |
JP7065545B1 (en) | Live distribution system, live distribution method, and live distribution program | |
KR100901111B1 (en) | Live-Image Providing System Using Contents of 3D Virtual Space | |
JP2023153790A (en) | program | |
KR102630555B1 (en) | System for providing audition service | |
KR100981043B1 (en) | System and method for remote lecture using chroma-key | |
JP6597317B2 (en) | Print production apparatus, server apparatus, and moving image data distribution system | |
CN116962744A (en) | Live webcast link interaction method, device and live broadcast system | |
JP7167629B2 (en) | guide system | |
KR100826134B1 (en) | System and Method for Providing Dance Moving Picture and Program Recording Medium | |
KR101093492B1 (en) | User Creative Contents Edit and Service Method | |
JP7072911B2 (en) | Content distribution system, content distribution method and content distribution program | |
KR100711856B1 (en) | Moving picture greeting transmission method and the system | |
CN115699723B (en) | Video editing device, video editing method, and recording medium | |
JP6849851B2 (en) | Shooting system, shooting device and user shooting method | |
JP6520262B2 (en) | How to play video data | |
KR20200005966A (en) | Relay server, contents generating apparatus and contents generating system including them | |
KR102258495B1 (en) | Sharing system of star's image and method of the same | |
KR102255635B1 (en) | Method for transmitting personalized multiple streams and apparatus for supporting by using the same | |
TWI221731B (en) | Automatic AV production supply system and method thereof | |
JP2008165559A (en) | Information delivery device and program | |
JP2005039564A (en) | Image distribution system, server device, portable terminal device, and image distribution method for use in the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211117 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20211117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220322 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220419 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7065545 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |