JP7080300B2 - ビデオタグの生成方法、装置、電子機器及び記憶媒体 - Google Patents
ビデオタグの生成方法、装置、電子機器及び記憶媒体 Download PDFInfo
- Publication number
- JP7080300B2 JP7080300B2 JP2020213352A JP2020213352A JP7080300B2 JP 7080300 B2 JP7080300 B2 JP 7080300B2 JP 2020213352 A JP2020213352 A JP 2020213352A JP 2020213352 A JP2020213352 A JP 2020213352A JP 7080300 B2 JP7080300 B2 JP 7080300B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- information
- tag
- candidate
- tags
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/74—Browsing; Visualisation therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7837—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
- G06F16/784—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/26—Techniques for post-processing, e.g. correcting the recognition result
- G06V30/262—Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
- G06V30/274—Syntactic or semantic context, e.g. balancing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/466—Learning process for intelligent management, e.g. learning user preferences for recommending movies
- H04N21/4662—Learning process for intelligent management, e.g. learning user preferences for recommending movies characterized by learning algorithms
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/466—Learning process for intelligent management, e.g. learning user preferences for recommending movies
- H04N21/4668—Learning process for intelligent management, e.g. learning user preferences for recommending movies for recommending content, e.g. movies
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Library & Information Science (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
ビデオの複数の候補タグを取得するステップと、
前記ビデオのビデオ情報を取得するステップと、
前記ビデオ情報と前記複数の候補タグの間の第1の相関性情報をそれぞれ計算するステップと、
前記第1の相関性情報に基づいて、前記複数の候補タグをソートするステップと、
ソート結果に基づいて前記ビデオのタグを生成するステップと、を含む。
ビデオの複数の候補タグを取得するための第1の取得モジュールと、
前記ビデオのビデオ情報を取得するための第2の取得モジュールと、
前記ビデオ情報と前記複数の候補タグの間の第1の相関性情報をそれぞれ計算するための第1の計算モジュールと、
前記第1の相関性情報に基づいて、前記複数の候補タグをソートするためのソートモジュールと、
ソート結果に基づいて前記ビデオのタグを生成するための第1の生成モジュールと、を含む。
少なくとも一つのプロセッサと、
前記少なくとも一つのプロセッサと通信可能に接続されるメモリと、を含み、
前記メモリには、前記少なくとも一つのプロセッサによって実行可能な命令が記憶されており、前記命令が前記少なくとも一つのプロセッサによって実行される場合、前記少なくとも一つのプロセッサが上記第1の側面の実施例に記載のビデオタグの生成方法を実行する。
第5の態様によれば、コンピュータプログラムを提供し、前記コンピュータプログラムにおける命令が実行された場合に、上記第1の側面の実施例に記載のビデオタグの生成方法が実行される。
ステップ101:ビデオの複数の候補タグを取得する。
ステップ301:ビデオ中の人物に対して顔認識を行って、人物の人物情報と出現時間を取得する。
ステップ401:ビデオの複数の候補タグを取得する。
ステップ501:サンプルビデオ情報、サンプルタグ、及びサンプルビデオ情報とサンプルタグの間のマーク相関性情報を取得する。
第2の取得モジュール720は、ビデオのビデオ情報を取得することに用いられ、
第1の計算モジュール730は、ビデオ情報と複数の候補タグの間の第1の相関性情報をそれぞれ計算することに用いられ、
ソートモジュール740は、第1の相関性情報に基づいて、複数の候補タグをソートすることに用いられ、
第1の生成モジュール750は、ソート結果に基づいて前記ビデオのタグを生成することに用いられる。
ビデオに対応する知識グラフまたは知識点グラフを取得するための第3の取得モジュールと、
知識グラフまたは知識点グラフに基づいて複数の候補タグ間の第2の相関性情報を計算するための第2の計算モジュールと、をさらに含み、ここで、ソートモジュールは、第1の相関性情報及び第2の相関性情報に基づいて複数の候補タグをソートすることに用いられる。
ビデオのビデオタイトルを取得し、及び
ビデオタイトルに基づいて候補タグを生成することに用いられる。
ビデオの作者タグを取得し、及び
作者タグに基づいて候補タグを生成することに用いられる。
ビデオの分類情報を取得し、及び
分類情報に基づいて候補タグを生成することに用いられる。
ビデオ中のテキスト情報を認識し、及び
テキスト情報に基づいて候補タグを生成することに用いられる。
ビデオ中の人物に対して顔認識を行って、人物の人物情報と出現時間を取得し、
出現時間に基づいて、人物がビデオ中の主要人物であるか否かを判断し、及び
人物が主要人物である場合、人物の人物情報に基づいて候補タグを生成することに用いられる。
ビデオ情報及び複数の候補タグを意味マッチングモデルに入力して、ビデオ情報と複数の候補タグの間の第1の相関性情報を生成することに用いられる。
第4の取得モジュールは、サンプルビデオ情報、サンプルタグ、及びサンプルビデオ情報とサンプルタグの間のマーク相関性情報を取得することに用いられ、
第2の生成モジュールは、サンプルビデオ及びサンプルタグを初期意味マッチングモデルに入力して、予測相関性情報を生成することに用いられ、
トレーニングモジュールは、予測相関性情報及びマーク相関性情報に基づいて、初期意味マッチングモデルをトレーニングすることに用いられる。
ビデオのタイトルを取得し、
ビデオ中の人物の人物情報を取得し、
ビデオの分類情報を取得し、及び
ビデオのタイトル、人物情報及び分類情報に基づいてビデオ情報を生成することに用いられる。
複数の候補タグの長さ情報を取得するための第5の取得モジュールと、
複数の候補タグの長さ情報に基づいて、複数の候補タグのタグ粒度情報をそれぞれ生成するための第3の生成モジュールと、をさらに含み、ここで、ソートモジュールは、第1の相関性情報及びタグ粒度情報に基づいて、複数の候補タグをソートすることに用いられる。
複数の候補タグの人気情報を取得するための第6の取得モジュールをさらに含み、ここで、ソートモジュールは、第1の相関性情報及び人気情報に基づいて、複数の候補タグをソートすることに用いられる。
Claims (27)
- ビデオタグの生成装置によって実現されるビデオタグの生成方法であって、
ビデオの複数の候補タグを取得するステップと、
前記ビデオのビデオ情報を取得するステップと、
前記ビデオ情報と前記複数の候補タグの間の第1の相関性情報をそれぞれ計算するステップと、
前記第1の相関性情報に基づいて、前記複数の候補タグをソートするステップと、
ソート結果に基づいて前記ビデオのタグを生成するステップと、
を含む、
ことを特徴とするビデオタグの生成方法。 - 前記方法は、
前記ビデオに対応する知識グラフまたは知識点グラフを取得するステップと、
前記知識グラフまたは知識点グラフに基づいて前記複数の候補タグ間の第2の相関性情報を計算し、前記第1の相関性情報及び前記第2の相関性情報に基づいて前記複数の候補タグをソートするステップと、
をさらに含む、
ことを特徴とする請求項1に記載のビデオタグの生成方法。 - 前記ビデオの複数の候補タグを取得するステップは、
前記ビデオのビデオタイトルを取得するステップと、
前記ビデオタイトルに基づいて前記候補タグを生成するステップと、
を含む、
ことを特徴とする請求項1に記載のビデオタグの生成方法。 - 前記ビデオの複数の候補タグを取得するステップは、
前記ビデオの作者タグを取得するステップと、
前記作者タグに基づいて前記候補タグを生成するステップと、
を含む、
ことを特徴とする請求項1に記載のビデオタグの生成方法。 - 前記ビデオの複数の候補タグを取得するステップは、
前記ビデオの分類情報を取得するステップと、
前記分類情報に基づいて前記候補タグを生成するステップと、
を含む、
ことを特徴とする請求項1に記載のビデオタグの生成方法。 - 前記ビデオの複数の候補タグを取得するステップは、
前記ビデオのテキスト情報を認識するステップと、
前記テキスト情報に基づいて前記候補タグを生成するステップと、
を含む、
ことを特徴とする請求項1に記載のビデオタグの生成方法。 - 前記ビデオの複数の候補タグを取得するステップは、
前記ビデオ中の人物に対して顔認識を行って、前記人物の人物情報と出現時間を取得するステップと、
前記出現時間に基づいて、前記人物が前記ビデオ中の主要人物であるか否かを判断するステップと、
前記人物が前記主要人物である場合、前記人物の人物情報に基づいて前記候補タグを生成するステップと、
を含む、
ことを特徴とする請求項1に記載のビデオタグの生成方法。 - 前記ビデオ情報と前記複数の候補タグの間の第1の相関性情報をそれぞれ計算するステップは、
前記ビデオ情報及び前記複数の候補タグを意味マッチングモデルに入力して、前記ビデオ情報と前記複数の候補タグの間の第1の相関性情報を生成するステップを含む、
ことを特徴とする請求項1に記載のビデオタグの生成方法。 - 前記意味マッチングモデルは、
サンプルビデオ情報、サンプルタグ及び前記サンプルビデオ情報と前記サンプルタグの間のマーク相関性情報を取得するステップと、
前記サンプルビデオ及び前記サンプルタグを初期意味マッチングモデルに入力して、予測相関性情報を生成するステップと、
前記予測相関性情報及び前記マーク相関性情報に基づいて、前記初期意味マッチングモデルをトレーニングするステップと、
によって取得される、
ことを特徴とする請求項8に記載のビデオタグの生成方法。 - 前記ビデオのビデオ情報を取得するステップは、
前記ビデオのタイトルを取得するステップと、
前記ビデオ中の人物の人物情報を取得するステップと、
前記ビデオの分類情報を取得するステップと、
前記ビデオのタイトル、前記人物情報及び前記分類情報に基づいて前記ビデオ情報を生成するステップと、
を含む、
ことを特徴とする請求項1に記載のビデオタグの生成方法。 - 前記複数の候補タグの長さ情報を取得するステップと、
前記複数の候補タグの長さ情報に基づいて、前記複数の候補タグのタグ粒度情報をそれぞれ生成し、前記第1の相関性情報及び前記タグ粒度情報に基づいて、前記複数の候補タグをソートするステップと、
をさらに含む、
ことを特徴とする請求項1に記載のビデオタグの生成方法。 - 前記複数の候補タグの人気情報を取得し、前記第1の相関性情報及び前記人気情報に基づいて、前記複数の候補タグをソートするステップをさらに含む、
ことを特徴とする請求項1に記載のビデオタグの生成方法。 - ビデオタグの生成装置であって、
ビデオの複数の候補タグを取得するための第1の取得モジュールと、
前記ビデオのビデオ情報を取得するための第2の取得モジュールと、
前記ビデオ情報と前記複数の候補タグの間の第1の相関性情報をそれぞれ計算するための第1の計算モジュールと、
前記第1の相関性情報に基づいて、前記複数の候補タグをソートするためのソートモジュールと、
ソート結果に基づいて前記ビデオのタグを生成するための第1の生成モジュールと、
を含む、
ことを特徴とするビデオタグの生成装置。 - 前記ビデオに対応する知識グラフまたは知識点グラフを取得するための第3の取得モジュールと、
前記知識グラフまたは知識点グラフに基づいて前記複数の候補タグ間の第2の相関性情報を計算するための第2の計算モジュールと、をさらに含み、ここで、前記ソートモジュールは、前記第1の相関性情報及び前記第2の相関性情報に基づいて前記複数の候補タグをソートすることに用いられる、
ことを特徴とする請求項13に記載のビデオタグの生成装置。 - 前記第1の取得モジュールは、
前記ビデオのビデオタイトルを取得し、及び
前記ビデオタイトルに基づいて前記候補タグを生成することに用いられる、
ことを特徴とする請求項13に記載のビデオタグの生成装置。 - 前記第1の取得モジュールは、
前記ビデオの作者タグを取得し、及び
前記作者タグに基づいて前記候補タグを生成することに用いられる、
ことを特徴とする請求項13に記載のビデオタグの生成装置。 - 前記第1の取得モジュールは、
前記ビデオの分類情報を取得し、及び
前記分類情報に基づいて前記候補タグを生成することに用いられる、
ことを特徴とする請求項13に記載のビデオタグの生成装置。 - 前記第1の取得モジュールは、
前記ビデオ中のテキスト情報を認識し、及び
前記テキスト情報に基づいて前記候補タグを生成することに用いられる、
ことを特徴とする請求項13に記載のビデオタグの生成装置。 - 前記第1の取得モジュールは、
前記ビデオ中の人物に対して顔認識を行って、前記人物の人物情報と出現時間を取得し、
前記出現時間に基づいて、前記人物が前記ビデオ中の主要人物であるか否かを判断し、及び
前記人物が前記主要人物である場合、前記人物の人物情報に基づいて前記候補タグを生成することに用いられる、
ことを特徴とする請求項13に記載のビデオタグの生成装置。 - 前記第1の計算モジュールは、
前記ビデオ情報及び前記複数の候補タグを意味マッチングモデルに入力して、前記ビデオ情報と前記複数の候補タグの間の第1の相関性情報を生成することに用いられる、
ことを特徴とする請求項13に記載のビデオタグの生成装置。 - 前記意味マッチングモデルは、第4の取得モジュール、第2の生成モジュール及びトレーニングモジュールによって取得され、
前記第4の取得モジュールは、サンプルビデオ情報、サンプルタグ及び前記サンプルビデオ情報と前記サンプルタグの間のマーク相関性情報を取得することに用いられ、
前記第2の生成モジュールは、前記サンプルビデオ及び前記サンプルタグを初期意味マッチングモデルに入力して、予測相関性情報を生成することに用いられ、
前記トレーニングモジュールは、前記予測相関性情報及び前記マーク相関性情報に基づいて、前記初期意味マッチングモデルをトレーニングすることに用いられる、
ことを特徴とする請求項20に記載のビデオタグの生成装置。 - 前記第2の取得モジュールは、
前記ビデオのタイトルを取得し、
前記ビデオ中の人物の人物情報を取得し、
前記ビデオの分類情報を取得し、及び
前記ビデオのタイトル、前記人物情報及び前記分類情報に基づいて前記ビデオ情報を生成することに用いられる、
ことを特徴とする請求項13に記載のビデオタグの生成装置。 - 前記複数の候補タグの長さ情報を取得するための第5の取得モジュールと、
前記複数の候補タグの長さ情報に基づいて、前記複数の候補タグのタグ粒度情報をそれぞれ生成するための第3の生成モジュールと、をさらに含み、ここで、前記ソートモジュールは、前記第1の相関性情報及び前記タグ粒度情報に基づいて、前記複数の候補タグをソートすることに用いられる、
ことを特徴とする請求項13に記載のビデオタグの生成装置。 - 前記複数の候補タグの人気情報を取得するための第6の取得モジュールをさらに含み、ここで、前記ソートモジュールは、前記第1の相関性情報及び前記人気情報に基づいて、前記複数の候補タグをソートすることに用いられる、
ことを特徴とする請求項13に記載のビデオタグの生成装置。 - 電子機器であって、
少なくとも一つのプロセッサと、
前記少なくとも一つのプロセッサと通信可能に接続されるメモリと、を含み、
前記メモリには、前記少なくとも一つのプロセッサによって実行可能な命令が記憶されており、前記命令が前記少なくとも一つのプロセッサによって実行される場合、前記少なくとも一つのプロセッサが請求項1~12のいずれかに記載のビデオタグの生成方法を実行する、
ことを特徴とする電子機器。 - コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令は、前記コンピュータに請求項1~12のいずれかに記載のビデオタグの生成方法を実行させる、
ことを特徴とするコンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体。 - コンピュータプログラムであって、
前記コンピュータプログラムにおける命令が実行された場合に、請求項1~12のいずれかに記載のビデオタグの生成方法が実行される、
ことを特徴とするコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010493783.7A CN111831854A (zh) | 2020-06-03 | 2020-06-03 | 视频标签的生成方法、装置、电子设备和存储介质 |
CN202010493783.7 | 2020-06-03 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021190079A JP2021190079A (ja) | 2021-12-13 |
JP7080300B2 true JP7080300B2 (ja) | 2022-06-03 |
Family
ID=72897609
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020213352A Active JP7080300B2 (ja) | 2020-06-03 | 2020-12-23 | ビデオタグの生成方法、装置、電子機器及び記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11508153B2 (ja) |
EP (1) | EP3920088A1 (ja) |
JP (1) | JP7080300B2 (ja) |
KR (1) | KR102510317B1 (ja) |
CN (1) | CN111831854A (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112084268B (zh) * | 2020-09-04 | 2022-05-20 | 北京字节跳动网络技术有限公司 | 一种搜索结果展示的方法、装置及计算机存储介质 |
CN112784111B (zh) * | 2021-03-12 | 2024-07-02 | 有半岛(北京)信息科技有限公司 | 视频分类方法、装置、设备及介质 |
CN113382279B (zh) * | 2021-06-15 | 2022-11-04 | 北京百度网讯科技有限公司 | 直播推荐方法、装置、设备、存储介质以及计算机程序产品 |
CN113792115B (zh) * | 2021-08-17 | 2024-03-22 | 北京百度网讯科技有限公司 | 实体相关性确定方法、装置、电子设备及存储介质 |
CN113722542A (zh) * | 2021-08-31 | 2021-11-30 | 青岛聚看云科技有限公司 | 视频推荐方法及显示设备 |
JP2023077006A (ja) | 2021-11-24 | 2023-06-05 | 株式会社豊田自動織機 | 内燃機関システムの制御装置 |
CN114338586B (zh) * | 2021-12-21 | 2024-05-28 | 中国农业银行股份有限公司 | 一种消息推送方法、装置、电子设备及存储介质 |
CN114157882B (zh) * | 2021-12-27 | 2024-04-30 | 未来电视有限公司 | 视频编目方法、装置、电子设备及计算机可读存储介质 |
CN115878849B (zh) * | 2023-02-27 | 2023-05-26 | 北京奇树有鱼文化传媒有限公司 | 一种视频标签关联方法、装置和电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008268985A (ja) | 2007-04-16 | 2008-11-06 | Yahoo Japan Corp | タグを付与する方法 |
JP2018169697A (ja) | 2017-03-29 | 2018-11-01 | 西日本電信電話株式会社 | 映像データ処理装置、映像データ処理方法、及びコンピュータプログラム |
CN108829893A (zh) | 2018-06-29 | 2018-11-16 | 北京百度网讯科技有限公司 | 确定视频标签的方法、装置、存储介质和终端设备 |
CN110287375A (zh) | 2019-05-30 | 2019-09-27 | 北京百度网讯科技有限公司 | 视频标签的确定方法、装置及服务器 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8098976B1 (en) * | 2011-09-26 | 2012-01-17 | Limelight Networks, Inc. | Methods and systems for performing top concepts extraction |
KR101031357B1 (ko) * | 2009-07-15 | 2011-04-29 | 인하대학교 산학협력단 | 주요 배역을 추출하는 방법 및 장치 |
KR101658413B1 (ko) * | 2009-09-22 | 2016-09-22 | 삼성전자주식회사 | 동영상에서의 인물 정보 추출방법 및 그 장치 |
US9020244B2 (en) * | 2011-12-06 | 2015-04-28 | Yahoo! Inc. | Ranking and selecting representative video images |
KR102073352B1 (ko) * | 2014-06-27 | 2020-02-04 | 구글 엘엘씨 | 콘텐츠 성능 최적화를 위한 자동화된 클릭 타입 선택 |
CN104090955A (zh) * | 2014-07-07 | 2014-10-08 | 科大讯飞股份有限公司 | 一种音视频标签自动标注方法及*** |
CN108509465B (zh) * | 2017-02-28 | 2022-03-15 | 阿里巴巴集团控股有限公司 | 一种视频数据的推荐方法、装置和服务器 |
US10997413B2 (en) * | 2018-03-23 | 2021-05-04 | NthGen Software Inc. | Method and system for obtaining vehicle target views from a video stream |
CN110555136B (zh) * | 2018-03-29 | 2022-07-08 | 阿里巴巴(中国)有限公司 | 一种视频标签的生成方法、装置及计算机存储介质 |
CN110691202A (zh) * | 2019-08-28 | 2020-01-14 | 咪咕文化科技有限公司 | 视频剪辑方法、装置及计算机存储介质 |
CN110968736B (zh) * | 2019-12-04 | 2021-02-02 | 深圳追一科技有限公司 | 视频生成方法、装置、电子设备及存储介质 |
CN111125435B (zh) * | 2019-12-17 | 2023-08-11 | 北京百度网讯科技有限公司 | 视频标签的确定方法、装置和计算机设备 |
CN113132752B (zh) * | 2019-12-30 | 2023-02-24 | 阿里巴巴集团控股有限公司 | 视频处理方法及装置 |
WO2022070908A1 (ja) * | 2020-09-29 | 2022-04-07 | 株式会社ドワンゴ | 動画配信装置、動画配信方法、および、記録媒体 |
-
2020
- 2020-06-03 CN CN202010493783.7A patent/CN111831854A/zh active Pending
- 2020-12-08 US US17/115,263 patent/US11508153B2/en active Active
- 2020-12-23 JP JP2020213352A patent/JP7080300B2/ja active Active
-
2021
- 2021-01-05 EP EP21150149.9A patent/EP3920088A1/en not_active Withdrawn
- 2021-03-24 KR KR1020210038311A patent/KR102510317B1/ko active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008268985A (ja) | 2007-04-16 | 2008-11-06 | Yahoo Japan Corp | タグを付与する方法 |
JP2018169697A (ja) | 2017-03-29 | 2018-11-01 | 西日本電信電話株式会社 | 映像データ処理装置、映像データ処理方法、及びコンピュータプログラム |
CN108829893A (zh) | 2018-06-29 | 2018-11-16 | 北京百度网讯科技有限公司 | 确定视频标签的方法、装置、存储介质和终端设备 |
CN110287375A (zh) | 2019-05-30 | 2019-09-27 | 北京百度网讯科技有限公司 | 视频标签的确定方法、装置及服务器 |
Also Published As
Publication number | Publication date |
---|---|
US20210383121A1 (en) | 2021-12-09 |
EP3920088A1 (en) | 2021-12-08 |
US11508153B2 (en) | 2022-11-22 |
KR20210040329A (ko) | 2021-04-13 |
KR102510317B1 (ko) | 2023-03-17 |
CN111831854A (zh) | 2020-10-27 |
JP2021190079A (ja) | 2021-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7080300B2 (ja) | ビデオタグの生成方法、装置、電子機器及び記憶媒体 | |
CN112507715B (zh) | 确定实体之间关联关系的方法、装置、设备和存储介质 | |
JP7166322B2 (ja) | モデルを訓練するための方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
JP7317791B2 (ja) | エンティティ・リンキング方法、装置、機器、及び記憶媒体 | |
KR102532152B1 (ko) | 멀티 모달 콘텐츠 처리 방법, 장치, 기기 및 저장 매체 | |
KR102565659B1 (ko) | 정보 생성 방법 및 장치 | |
JP2022013602A (ja) | テキスト中のイベント抽出方法、装置、電子機器及び記憶媒体 | |
JP7304370B2 (ja) | ビデオ検索方法、装置、デバイス及び媒体 | |
JP2021190087A (ja) | テキスト認識処理方法、装置、電子機器及び記憶媒体 | |
JP7264866B2 (ja) | イベント関係の生成方法、装置、電子機器及び記憶媒体 | |
JP7108675B2 (ja) | 意味マッチング方法、装置、電子機器、記憶媒体及びコンピュータプログラム | |
JP7149993B2 (ja) | 感情分析モデルの事前トレーニング方法、装置及び電子機器 | |
CN111125435B (zh) | 视频标签的确定方法、装置和计算机设备 | |
CN111523326A (zh) | 实体链指方法、装置、设备以及存储介质 | |
JP2021101361A (ja) | イベントトピックの生成方法、装置、機器及び記憶媒体 | |
CN111737954B (zh) | 文本相似度确定方法、装置、设备和介质 | |
JP2021174516A (ja) | ナレッジグラフ構築方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
CN111078878B (zh) | 文本处理方法、装置、设备及计算机可读存储介质 | |
US20220067439A1 (en) | Entity linking method, electronic device and storage medium | |
JP2022050379A (ja) | 意味検索方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
JP2021108098A (ja) | レビュー情報の処理方法、装置、コンピュータ機器及び媒体 | |
CN110674260B (zh) | 语义相似模型的训练方法、装置、电子设备和存储介质 | |
JP2021111334A (ja) | 検索データに基づくヒューマンコンピュータ対話型インタラクションの方法、装置及び電子機器 | |
JP7140913B2 (ja) | 映像配信時効の決定方法及び装置 | |
KR20210090576A (ko) | 품질을 관리하는 방법, 장치, 기기, 저장매체 및 프로그램 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201223 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220419 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220510 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220524 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7080300 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |