JP7080300B2 - ビデオタグの生成方法、装置、電子機器及び記憶媒体 - Google Patents

ビデオタグの生成方法、装置、電子機器及び記憶媒体 Download PDF

Info

Publication number
JP7080300B2
JP7080300B2 JP2020213352A JP2020213352A JP7080300B2 JP 7080300 B2 JP7080300 B2 JP 7080300B2 JP 2020213352 A JP2020213352 A JP 2020213352A JP 2020213352 A JP2020213352 A JP 2020213352A JP 7080300 B2 JP7080300 B2 JP 7080300B2
Authority
JP
Japan
Prior art keywords
video
information
tag
candidate
tags
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020213352A
Other languages
English (en)
Other versions
JP2021190079A (ja
Inventor
呈祥 ▲劉▼
昊 ▲劉▼
伯磊 何
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021190079A publication Critical patent/JP2021190079A/ja
Application granted granted Critical
Publication of JP7080300B2 publication Critical patent/JP7080300B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/74Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/26Techniques for post-processing, e.g. correcting the recognition result
    • G06V30/262Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
    • G06V30/274Syntactic or semantic context, e.g. balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4662Learning process for intelligent management, e.g. learning user preferences for recommending movies characterized by learning algorithms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4668Learning process for intelligent management, e.g. learning user preferences for recommending movies for recommending content, e.g. movies

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Library & Information Science (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本出願は、コンピュータ技術分野に関し、具体的に自然言語処理、深層学習技術分野に関し、特にビデオタグの生成方法、装置、電子機器及び記憶媒体を提供する。
ユーザの興味のあるポイントに基づくパーソナライズされた情報推奨は、ビデオリソースの推奨など、情報消費の新しい潮流であり、ビデオリソースのパーソナライズされた推奨を実現するには、通常、ビデオリソースにタグを付け、ビデオタグに基づいて推奨を行う必要がある。
精度の高いビデオタグをどのように取得するかは、ビデオ推奨に重要な役割を果たしていることがわかる。
本出願は、正確で完全なビデオタグを生成するためのビデオタグの生成方法、装置、電子機器及び記憶媒体を提供する。
第1の側面によれば、ビデオタグの生成方法を提供し、
ビデオの複数の候補タグを取得するステップと、
前記ビデオのビデオ情報を取得するステップと、
前記ビデオ情報と前記複数の候補タグの間の第1の相関性情報をそれぞれ計算するステップと、
前記第1の相関性情報に基づいて、前記複数の候補タグをソートするステップと、
ソート結果に基づいて前記ビデオのタグを生成するステップと、を含む。
本出願の実施例のビデオタグの生成方法は、ビデオの複数の候補タグ及びビデオ情報を取得し、ビデオ情報と複数の候補タグの間の第1の相関性情報をそれぞれ計算し、そして第1の相関性情報に基づいて、複数の候補タグをソートし、ソート結果に基づいてビデオのタグを生成する。これにより、ビデオ情報と各候補タグの間の第1の相関性情報に基づいて、複数の候補タグをソートし、ソート結果に基づいてビデオのタグを生成することにより、複数の候補タグの統合と利用を実現し、ビデオに正確で完全なタグを付け、ビデオタグの正確性と完全性を向上させ、ビデオ推奨の効果を向上させる。
第2の側面によれば、ビデオタグの生成装置を提供し、
ビデオの複数の候補タグを取得するための第1の取得モジュールと、
前記ビデオのビデオ情報を取得するための第2の取得モジュールと、
前記ビデオ情報と前記複数の候補タグの間の第1の相関性情報をそれぞれ計算するための第1の計算モジュールと、
前記第1の相関性情報に基づいて、前記複数の候補タグをソートするためのソートモジュールと、
ソート結果に基づいて前記ビデオのタグを生成するための第1の生成モジュールと、を含む。
本出願の実施例のビデオタグの生成装置は、ビデオの複数の候補タグ及びビデオ情報を取得し、ビデオ情報と複数の候補タグの間の第1の相関性情報をそれぞれ計算し、そして第1の相関性情報に基づいて、複数の候補タグをソートし、ソート結果に基づいてビデオのタグを生成する。これにより、ビデオ情報と各候補タグの間の第1の相関性情報に基づいて、複数の候補タグをソートし、ソート結果に基づいてビデオのタグを生成することにより、複数の候補タグの統合と利用を実現し、ビデオに正確で完全なタグを付け、ビデオタグの正確性と完全性を向上させ、ビデオ推奨の効果を向上させる。
第3の側面によれば、電子機器を提供し、
少なくとも一つのプロセッサと、
前記少なくとも一つのプロセッサと通信可能に接続されるメモリと、を含み、
前記メモリには、前記少なくとも一つのプロセッサによって実行可能な命令が記憶されており、前記命令が前記少なくとも一つのプロセッサによって実行される場合、前記少なくとも一つのプロセッサが上記第1の側面の実施例に記載のビデオタグの生成方法を実行する。
第4の側面によれば、コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体を提供し、前記コンピュータ命令は、前記コンピュータに上記第1の側面の実施例に記載のビデオタグの生成方法を実行させる。
第5の態様によれば、コンピュータプログラムを提供し、前記コンピュータプログラムにおける命令が実行された場合に、上記第1の側面の実施例に記載のビデオタグの生成方法が実行される。
本出願の実施例によれば、ビデオ情報と各候補タグの間の第1の相関性情報に基づいて、複数の候補タグをソートし、ソート結果に基づいてビデオのタグを生成することにより、複数の候補タグの統合と利用を実現し、ビデオに正確で完全なタグを付け、ビデオタグの正確性と完全性を向上させ、ビデオ推奨の効果を向上させる。
上記の選択可能な方式が有する他の効果については、以下、具体的な実施例を組み合わせて説明する。
図面は、本技術案をよりよく理解するために使用されており、本出願の限定を構造するものではない。
本出願の実施例により提供されるビデオタグの生成方法の概略フローチャートである。 本出願の実施例により提供されるもう一つのビデオタグの生成方法の概略フローチャートである。 本出願の実施例により提供されるもう一つのビデオタグの生成方法の概略フローチャートである。 本出願の実施例により提供されるもう一つのビデオタグの生成方法の概略フローチャートである。 本出願の実施例により提供されるもう一つのビデオタグの生成方法の概略フローチャートである。 本出願の実施例により提供される意味マッチングモデルによってマッチングスコアを取得する概略図である。 本出願の実施例により提供されるビデオタグの生成装置の概略構造図である。 本出願の実施例に係るビデオタグの生成方法の電子機器のブロック図である。
以下、図面を組み合わせて本出願の例示的な実施例を説明し、理解を容易にするためにその中には本出願の実施例の様々な詳細事項を含んでおり、それらは単なる例示的なものと見なされるべきである。したがって、当業者は、本出願の範囲及び精神から逸脱することなく、ここで説明される実施例に対して様々な変更と修正を行うことができることを認識されたい。同様に、明確及び簡潔するために、以下の説明では、周知の機能及び構造の説明を省略する。
以下、図面を参照して本出願の実施例のビデオタグの生成方法、装置、電子機器及び記憶媒体について説明する。
本出願の実施例のビデオタグの生成方法は、ビデオ情報と各候補タグの間の第1の相関性情報に基づいて、複数の候補タグをソートし、ソート結果に基づいてビデオのタグを生成することにより、複数の候補タグの統合と利用を実現し、ビデオに正確で完全なタグを付け、ビデオタグの正確性と完全性を向上させ、ビデオ推奨の効果を向上させる。
図1は本出願の実施例により提供されるビデオタグの生成方法の概略フローチャートである。
本出願の実施例のビデオタグの生成方法は、本出願の実施例により提供されるビデオタグの生成装置によって実行されることができ、当該装置は、ビデオ情報と複数の候補タグの間の相関性に基づいて、正確で完全なビデオタグを生成するように、電子機器に配置されることができる。
図1に示すように、当該ビデオタグの生成方法は、ステップ101~ステップ105を含む。
ステップ101:ビデオの複数の候補タグを取得する。
本出願において、ビデオタイトル、ユーザタグなどビデオの相関情報に基づいて、ビデオの複数の候補タグを取得することができる。ここで、ユーザタグとは、ユーザがビデオをアップロードするときに編集するタグのことである。
例えば、あるビデオの発表者がこのビデオをアップロードする際に、タグ「グルメ」、「スイーツ」を編集すれば、「グルメ」、「スイーツ」をそのビデオの候補タグとすることができる。
ステップ102:ビデオのビデオ情報を取得する。
本出願において、ビデオ情報はビデオのコンテンツ情報を指す。実際のアプリケーションでは、ビデオのタグがビデオのコンテンツに近いほど、そのビデオタグがより正確であることを示す。したがって、ビデオ中の人物情報、建物名称などビデオのビデオ情報を取得することができる。
ステップ103:ビデオ情報と複数の候補タグの間の第1の相関性情報をそれぞれ計算する。
本出願において、ビデオ情報と各候補タグの相関情報を計算することができ、区別を容易にするために、ここでは第1の相関性情報と呼ぶ。
具体的に、ビデオ情報に対応するベクトル表現及び各候補タグに対応するベクトル表現を取得し、そしてビデオ情報に対応するベクトル表現及び各候補タグに対応するベクトル表現に基づいて、ビデオ情報と各候補タグの間のマッチング度合いを計算し、マッチング度合いに基づいて第1の相関性情報を決定する。ここで、マッチング度合いが高いほど、相関性が大きくなる。これにより、各候補タグとビデオ情報の間の第1の相関性情報を取得することができる。
ステップ104:第1の相関性情報に基づいて、複数の候補タグをソートする。
各候補タグとビデオ情報の間の第1の相関性情報を取得した後、各候補タグに対応する第1の相関情報に基づいて、複数の候補タグをソートする。例えば、相関性の大きい順に各候補タグに対応する第1の相関性情報をソートしてもよいし、相関性の小さい順に複数の候補タグをソートしてもよい。
ステップ105:ソート結果に基づいてビデオのタグを生成する。
取得されたいくつかの候補は、ビデオコンテンツとの関連性が低い可能性があるので、本出願において、複数の候補タグからビデオ情報との相関性が最大の予め設定された数量の候補タグを取得して、これらの候補タグをビデオのタグとすることができる。これにより、ビデオ情報との相関性が低い候補タグをふるい落とすことができ、ビデオタグの正確性を向上させる。
実際のアプリケーションでは、単一のタグはビデオコンテンツを表現することが困難であり、タグがビデオコンテンツに関係がないなど、タグにノイズを帯びている場合があり、本出願において、複数の候補タグを統合と利用してビデオタグを取得し、ビデオタグの完全性を向上させる。
本出願の実施例において、ビデオの複数の候補タグ及びビデオ情報を取得し、ビデオ情報と複数の候補タグの間の第1の相関性情報をそれぞれ計算し、そして第1の相関性情報に基づいて、複数の候補タグをソートし、ソート結果に基づいてビデオのタグを生成する。これにより、ビデオ情報と各候補タグの間の第1の相関性情報に基づいて、複数の候補タグをソートし、ソート結果に基づいてビデオのタグを生成することにより、複数の候補タグの統合と利用を実現し、ビデオに正確で完全なタグを付け、ビデオタグの正確性と完全性を向上させ、ビデオ推奨の効果を向上させる。
生成されたビデオタグの正確性と完全性をさらに向上させるために、本出願の一つの実施例において、知識グラフまたは知識点グラフによって、複数の候補タグ間の相関性を取得し、第1の相関性を結合してビデオのタグを生成することもできる。以下、図2を組み合わせて説明し、図2は本出願の実施例により提供されるもう一つのビデオタグの生成方法の概略フローチャートである。
ステップ201:ビデオの複数の候補タグを取得する。
ステップ202:ビデオのビデオ情報を取得する。
ステップ203:ビデオ情報と複数の候補タグの間の第1の相関性情報をそれぞれ計算する。
本出願において、ステップ201~ステップ203はステップ101~ステップ103と類似するため、ここでは説明を省略する。
ステップ204:ビデオに対応する知識グラフまたは知識点グラフを取得する。
本出願において、知識グラフは予め作成されており、ビデオの名称や人物に基づいて知識グラフを取得することができる。例えば、ビデオがドラマの断片であれば、そのドラマの監督、役割、劇中の人物関係、各役割の俳優など、そのドラマの相関情報をインターネットから照会することができ、そのドラマの相関情報を知識グラフと見なすことができる。
知識点グラフは、エンティティ及びエンティティとエンティティの間の相関性を含む。ここで、エンティティとエンティティの間の相関性は共起状況に基づいて計算して取得されることができる。
ステップ205:知識グラフまたは知識点グラフに基づいて複数の候補タグ間の第2の相関性情報を計算する。
本出願において、知識グラフにおけるエンティティとエンティティの間の関係に基づいて、複数の候補タグ間の相関性情報を決定することができ、ここでは第2の相関性情報と呼ぶ。
例えば、あるビデオの候補タグはキャラクタA、ドラマ名Bであり、そのビデオに対応する知識グラフでキャラクタAの俳優がCであれば、そのキャラクタAと俳優Cの間の相関性、および俳優CとドラマBの間の相関性を決定することができる。
知識点グラフはエンティティとエンティティの間の相関性を含むので、知識点グラフに基づいて複数の候補タグ間の相関性情報を取得することができる。例えば、知識点グラフからある俳優と出演するあるドラマの間の相関性を取得することができる。
本出願において、知識グラフまたは知識点グラフによれば、候補タグ間の相関性情報を取得できるだけでなく、候補タグを拡張して、候補タグをより豊かにすることもできる。
ステップ206:第1の相関性情報及び第2の相関性情報に基づいて複数の候補タグをソートする。
第1の相関性情報及び第2の相関性情報に基づいて複数の候補タグをソートする場合、まず各候補タグに対応する第1の相関性情報に基づいて、複数の候補タグをソートし、初期ソート結果を取得し、そして第2の相関性情報に基づいて、初期ソート結果における候補タグの位置を、相関性が比較的高い候補タグが隣接するように調整し、最終のソート結果を取得することができる。
または、ビデオ情報との最も相関性の高い候補タグを決定し、そして他の候補タグとこの候補タグとの相関性、及び他の候補タグとビデオ情報との相関性の平均値に基づいて、残りの候補タグをソートする。
上記2つの方式は例示にすぎず、他の第1の相関性情報及び第2の相関性情報に基づいて複数の候補タグをソートする方法は、いずれも本出願の保護範囲に属する。
ステップ207:ソート結果に基づいてビデオのタグを生成する。
本実施例において、ステップ207はステップ105と類似するため、ここでは説明を省略する。
なお、本出願において、ステップ204はステップ203の前に実行してもよく、ステップ201、202、204の実行順序は限定されず、ステップ205とステップ203の実行順序は限定されない。
本出願の実施例において、ビデオに対応する知識グラフまたは知識点グラフを取得し、知識グラフまたは知識点グラフに基づいて複数の候補タグ間の第2の相関性情報を計算し、ここで、第1の相関性情報及び第2の相関性情報に基づいて複数の候補タグをソートすることもできる。これにより、複数の候補タグとビデオ情報の間の相関性情報及び複数の候補タグ間の相関性情報を使用して、複数の候補タグをソートし、ソートの精度を向上させ、ソート結果に基づいてビデオのタグを生成し、ビデオタグの正確性と完全性をさらに向上させる。
実際のアプリケーションでは、通常、ビデオにはタイトルがあり、本出願の一つの実施例において、上記ビデオの複数の候補タグを取得するときに、まずビデオのビデオタイトルを取得し、そしてビデオタグに基づいて候補タグを生成することができる。
具体的に、ビデオタイトルに対してカットワード処理を行い、ビデオタイトルの各ワードを取得し、そしてその中からキーワードを抽出し、抽出されたキーワードを候補タグとする。
本出願の実施例において、ビデオの複数の候補タグを取得するときに、ビデオのビデオタイトルを取得し、ビデオタイトルに基づいて候補タグを生成する。これにより、ビデオタイトルに基づいて候補タグを生成することにより、ビデオの候補タグを豊かにする。
本出願の一つの実施例において、上記ビデオの複数の候補タグを取得するときに、ビデオの作者タグを取得し、作者タグに基づいて候補タグを生成することができる。具体的に、作者タグを取得した後、取得された作者タグをビデオの候補タグとする。
ここで、作者タグは、作者がビデオを発表するときに編集するタグを指す。
本出願の実施例において、ビデオの複数の候補タグを取得するときに、ビデオの作者タグを取得し、作者タグに基づいて候補タグを生成することができる。これにより、ビデオの作者タグに基づいて候補タグを生成することにより、ビデオの候補タグを豊かにする。
本出願の一つの実施例において、上記ビデオの複数の候補タグを取得するときに、ビデオの分類情報を取得し、分類情報に基づいて候補タグを生成することができる。
本出願において、ビデオの分類情報は、エンターテインメント、お笑い、テクノロジーなど、ビデオのカテゴリを指し、作者がビデオを発表する際に入力した分類であってもよいし、知識グラフから取得したものであってもよいし、既存のビデオ分類方法に基づいて取得したビデオの分類情報であってもよい。
分類情報を取得した後、ビデオが属するカテゴリをビデオの候補タグとすることができる。例えば、あるビデオがドラマの断片であり、そのドラマのカテゴリが時代劇ドラマであれば、「時代劇」をそのビデオの候補タグとすることができる。
本出願の実施例において、ビデオの複数の候補タグを取得するときに、ビデオの分類情報を取得し、分類情報に基づいて候補タグを生成することができる。これにより、ビデオの分類情報に基づいて候補タグを生成することにより、ビデオの候補タグを豊かにする。
正確性が比較的高いビデオタグを生成するために、本出願の一つの実施例において、ビデオの複数の候補タグを取得するときに、ビデオ中のテキスト情報を認識し、テキスト情報に基づいて候補タグを生成することができる。
テキスト情報を取得する際に、ビデオに字幕があれば、ビデオから字幕であるテキスト情報を取得する。または、ビデオ中のオーディオ情報を収集し、オーディオを認識して、対応するテキスト情報を取得してもよい。
テキスト情報を取得した後、テキスト情報からキーワードを抽出し、抽出されたキーワードをビデオの候補タグとすることができる。例えば、ビデオから出現回数の多い予め設定された数のワードを抽出し、ビデオの候補タグとする。
本出願の実施例において、ビデオの複数の候補タグを取得するときに、ビデオ中のテキスト情報を認識し、テキスト情報に基づいて候補タグを生成する。ビデオ中のテキスト情報に基づいて候補タグを生成することにより、ビデオの候補タグを豊かにするだけでなく、候補タグとビデオの相関性も高い。
ビデオの候補タグを豊かにするために、本出願の一つの実施例において、ビデオ中の主要人物に基づいてビデオの候補タグを取得することもできる。以下、図3を組み合わせて説明し、図3は本出願の実施例により提供されるもう一つのビデオタグの生成方法の概略フローチャートである。
図3に示すように、上記ビデオの複数の候補タグを取得するステップは、ステップ301~ステップ303を含む。
ステップ301:ビデオ中の人物に対して顔認識を行って、人物の人物情報と出現時間を取得する。
本実施例において、ビデオ中のフレーム画像ごとに顔認識を行い、すべての画像中の同じ人物を集計し、人物ごとの人物情報と人物出現時間を取得することができる。
ここで、人物情報はビデオでの人物の名称であってもよく、人物出現時間はビデオに出現する時間帯であってもよい。
ステップ302:出現時間に基づいて、人物がビデオ中の主要人物であるか否かを判断する。
実際のアプリケーションでは、1段のビデオでは通常、主要人物の出現時間長が長い。これに基づいて、本実施例において、出現時間に基づいて人物の出現時間長を集計し、人物ごとの出現時間長に基づいて、人物がビデオ中の主要人物であるか否かを判断することができる。
具体的に、人物の出現時間長のビデオ時間長における比率が、予め設定された比率より大きいか否かを判断し、大きい場合、その人物をビデオ中の主要人物とみなすことができる。
ステップ303:人物が主要人物である場合、人物の人物情報に基づいて候補タグを生成する。
本実施例において、人物が主要人物である場合、人物の名称など人物の人物情報に基づいて候補タグを生成する。
または、ビデオで出現時間長が最も長い予め設定された人物を、ビデオ中の主要人物とし、そして主要人物の人物情報に基づいて候補タグを生成する。
本出願の実施例において、ビデオ中の人物に対して顔認識を行って、人物の人物情報と出現時間を取得し、出現時間に基づいて、人物がビデオ中の主要人物であるか否かを判断し、人物が主要人物である場合、人物の人物情報に基づいて候補タグを生成する。これにより、ビデオにおける人物の出現時間に基づいて、人物が主要人物であるか否かを判断し、人物が主要人物である場合、主要人物の人物情報に基づいて候補タグを生成し、主要人物はビデオから認識されたものであるので、生成された候補タグはビデオとの相関性が大きいだけでなく、ビデオの候補タグを豊かにする。
上記では、いくつかの異なるソースのビデオの候補タグを取得する方法について説明し、これにより、ビデオのタグを生成するときに、複数の異なるソースの候補タグを取得することができ、複数の候補タグとビデオ情報の相関性に基づいて、ビデオのタグを生成して、異なるソースの候補タグを統合と利用してビデオのタグを生成ことにより、ビデオタグの正確性と完全性を向上させる。
取得されたビデオ情報と候補タグとの相関性の精度を向上させるために、本出願の一つの実施例において、第1の相関性情報を取得するこきに、意味マッチングモデルによって第1の相関性情報を取得することができる。以下、図4を組み合わせて説明し、図4は本出願の実施例により提供されるもう一つのビデオタグの生成方法の概略フローチャートである。
図4に示すように、当該ビデオタグの生成方法は、ステップ401~ステップ405を含む。
ステップ401:ビデオの複数の候補タグを取得する。
ステップ402:ビデオのビデオ情報を取得する。
本出願において、ステップ401~ステップ402はステップ101~ステップ102と類似するため、ここでは説明を省略する。
ステップ403:ビデオ情報及び複数の候補タグを意味マッチングモデルに入力して、ビデオ情報と複数の候補タグの間の第1の相関性情報を生成する。
本実施例において、トレーニングにより意味マッチングモデルを予め取得し、ビデオの各候補タグに対して、候補タグ及びビデオ情報を意味マッチングモデルに入力し、意味マッチングモデルによって候補タグとビデオ情報の間の第1の相関性情報を取得することができる。
ここで、第1の相関性情報は、候補タグとビデオ情報の間のマッチング度合いを示すためのマッチングスコアであってもよく、マッチングスコアが高いほど、相関性が大きくなる。
ステップ404:第1の相関性情報に基づいて、複数の候補タグをソートする。
ステップ405:ソート結果に基づいてビデオのタグを生成する。
本実施例において、ステップ404~ステップ405は、上記のステップ103~104と類似するため、ここでは説明を省略する。
本出願の実施例において、ビデオ情報と複数の候補タグの間の第1の相関性情報をそれぞれ計算する場合、ビデオ情報及び複数の候補タグを意味マッチングモデルに入力して、ビデオ情報と複数の候補タグの間の第1の相関性情報を生成する。これにより、意味マッチングモデルによって各候補タグとビデオ情報との第1の相関性情報を取得することにより、第1の相関性情報の精度を向上させ、第1の相関性情報に基づいてビデオのタグを生成して、ビデオタグの精度を向上させる。
本出願の一つの実施例において、5の方法によって、トレーニングにより意味マッチングモデルを取得することができる。図5は本出願の実施例により提供されるもう一つのビデオタグの生成方法の概略フローチャートである。
図5に示すように、上記意味マッチングモデルは、以下のステップによってトレーニングして取得する。
ステップ501:サンプルビデオ情報、サンプルタグ、及びサンプルビデオ情報とサンプルタグの間のマーク相関性情報を取得する。
本実施例において、大量のサンプルビデオを取得することができ、各サンプルビデオのサンプルビデオ情報及びサンプルタグを取得する。ここで、サンプルタグはサンプルビデオのタグを指し、これらのタグは手動でマークしてもよく、サンプルタグは、サンプルビデオ情報と関連していても関連していなくてもよく、1つのサンプルビデオ情報は、複数のサンプルタグを有していてもよい。
また、サンプルビデオ情報とサンプルタグの間のマーク相関性情報も取得する。ここで、サンプルビデオ情報はサンプルタグと関連している場合、1とマークし、関連していない場合、0とマークすることができる。
ステップ502:サンプルビデオ及びサンプルタグを初期意味マッチングモデルに入力して、予測相関性情報を生成する。
本実施例において、各サンプルビデオ情報に対して、サンプルビデオ情報と各サンプルタグとのセットを作成し、それぞれ初期意味マッチングモデルに入力し、初期意味マッチングモデルが対応する予測相関性情報を生成することができる。
ステップ503:予測相関性情報及びマーク相関性情報に基づいて、初期意味マッチングモデルをトレーニングする。
本実施例において、モデルトレーニングを行う場合、深層学習の方式を採用してトレーニングすることができる。
予測相関情報を取得した後、予測相関性情報及びマーク相関性情報に基づいて、損失値を計算することができ、損失値が予め設定された損失閾値より大きいか否かを判断し、大きい場合、初期意味マッチングモデルのパラメータを調整する。そして、サンプルビデオ及びサンプルタグを、パラメータが調整された初期意味マッチングモデルに入力して、予測相関性情報を生成し、予測相関性情報及び対応するマーク相関性情報に基づいて、損失値を計算し、損失値が予め設定された損失閾値より大きいか否かを判断し、大きい場合、トレーニングを続け、損失値が予め設定された損失閾値より小さいまで、トレーニングを終了する。
本出願の実施例において、サンプルビデオ情報、サンプルタグ、及びサンプルビデオ情報とサンプルタグの間のマーク相関性情報を取得し、サンプルビデオ及びサンプルタグを初期意味マッチングモデルに入力して、予測相関性情報を生成し、予測相関性情報及びマーク相関性情報に基づいて、初期意味マッチングモデルをトレーニングする。これにより、サンプルビデオ情報、サンプルタグ及びマーク相関性情報によって、意味マッチングモデルをトレーニングして取得することができ、意味マッチングモデルによってビデオ情報と候補タグの間の精度が比較的高い第1の相関性情報を取得することができる。
本出願の一つの実施例において、ビデオのビデオ情報を取得するときに、ビデオのタイトル、ビデオ中の人物の人物情報、及びビデオの分類情報などを取得し、ビデオのタイトル、ビデオ中の人物の人物情報、及びビデオの分類情報に基づいてビデオのビデオ情報を生成することができる。
ここで、ビデオのタイトルは直接取得されることができ、ビデオ中の人物情報は、人物の顔の回数に基づいて生成する、複数の人物名をつなぎ合わせたテキストであってもよく、ある人物の出現回数が多いほど、このテキスト情報で対応する人名が多く出現し、ビデオの分類情報の取得は上記実施例を参照することができ、ここでは説明を省略する。
本実施例において、ビデオ情報は、ビデオのタイトル、ビデオ中の人物の人物情報及びビデオの分類情報の3つの部分から構成される。このビデオ情報を取得した後、このビデオ情報と各候補タグの間の第1の相関性情報を計算し、第1の相関性情報に基づいて複数の候補タグをソートし、ソート結果に基づいてビデオのタグを生成することができる。
本出願の実施例において、ビデオのビデオ情報を取得することにより、ビデオのタイトルを取得し、ビデオ中の人物の人物情報を取得し、ビデオの分類情報を取得し、ビデオのタイトル、人物情報及び分類情報に基づいてビデオ情報を生成する。これにより、ビデオのタイトル、人物情報及び分類情報をビデオ情報に生成することにより、ビデオコンテンツを特徴づけることができるビデオ情報を取得でき、第1の相関性情報の精度をさらに向上させる。
以下、図6を組み合わせて、意味マッチングモデルによって、ビデオ情報と候補タグの間のマッチングスコアを取得することについて説明する。図6は本出願の実施例により提供される意味マッチングモデルによってマッチングスコアを取得する概略図である。
図6において、ビデオのタイトル、人物情報及び分類情報の3つの情報を含むテキスト、及び候補タグを意味マッチングモデル610に入力し、意味マッチングモデル610がビデオ情報と候補タグの間のマッチングスコアを出力する。
各候補タグとビデオ情報のマッチングスコアを取得した後、マッチングスコアに基づいて複数の候補タグをソートし、マッチングスコアが比較的高い予め設定された数量の候補タグをビデオのタグとすることができる。
ビデオタグの正確性をさらに向上させるために、本出願の一つの実施例において、ビデオの複数の候補タグの粒度情報を取得し、候補タグとビデオ情報との第1の相関性情報に基づいて、候補タグの粒度情報を結合して、複数の候補タグをソートすることができる。
ここで、粒度情報は候補タグの範囲を指示することに用いられ、粒度が細かいほど候補タグの範囲が小さくなることを示す。例えば、「時代仙侠劇」は「時代劇」よりも粒度が明らかに細かくなる。
具体的に、候補タグに含まれるフィールドの数に基づいて、候補タグの長さ情報を取得し、各候補タグの長さ情報に基づいて、各候補タグの粒度情報を生成し、ここで、候補タグの長さが長いほど、粒度が細かくなる。
各候補タグとビデオ情報との第1の相関性情報、及び各候補タグの粒度情報を取得した後、第1の相関性情報と粒度情報、及び第1の相関性情報の重みと粒度情報の重みに基づいて、第1の相関性情報と粒度情報の加重和を計算して、各候補タグのスコアを取得することができる。そして、各候補タグのスコアに基づいて、複数の候補タグをソートし、ソート結果に基づいてビデオのタグを生成する。
または、第1の相関性情報と粒度情報それぞれに基づいて、複数の候補タグをソートし、その中から相関性が高い予め設定された数量のタグ、及び粒度が細かい候補タグの予め設定された数量のタグを選択し、選択されたタグに基づいてビデオのタグを生成する。
本出願の実施例において、複数の候補タグの長さ情報を取得し、複数の候補タグの長さ情報に基づいて、複数の候補タグのタグ粒度情報をそれぞれ生成し、複数の候補タグをソートする際に、第1の相関性情報及びタグ粒度情報に基づいて複数の候補タグをソートすることがさらにできる。これにより、ビデオ情報と候補タグとの相関性情報及び候補タグの粒度情報に基づいて、複数の候補タグをソートし、ソートの精度を向上させ、生成されたビデオタグの正確性を向上させる。
本出願の一つの実施例において、複数の候補タグの人気情報を取得し、人気情報及び第1の相関性情報に基づいて、複数の候補タグをソートすることがさらにできる。
具体的に、文章やビデオなどにおける各候補タグの出現回数を集計し、出現回数に基づいて人気情報を取得することができ、出現回数が多いほど、人気が高くなる。候補タグの人気が高いほど、ビデオタグである可能性が高く、ビデオの推奨効果が高い可能性がある。
複数の候補タグの人気情報及び複数の候補タグとビデオ情報との第1の相関性情報を取得した後、各候補タグに対応する第1の相関性情報と人気情報、及び第1の相関性情報の重みと人気情報の重みに基づいて、第1の相関性情報と人気情報の加重和を計算して、各候補タグのスコアを取得することができる。そして、各候補タグのスコアに基づいて、複数の候補タグをソートし、ソート結果に基づいてビデオのタグを生成する。
または、第1の相関性情報と人気情報それぞれに基づいて、複数の候補タグをソートし、その中から予め設定された数量の相関性が高いタグ、及び予め設定された数量の人気が高い候補タグのタグを選択し、選択されたタグに基づいてビデオのタグを生成する。
本出願の実施例において、複数の候補タグの人気情報を取得し、ソートする際に、前記第1の相関性情報及び前記人気情報に基づいて前記複数の候補タグをソートすることがさらにできる。これにより、ビデオ情報と候補タグとの相関性及び候補タグの人気情報を考慮することにより、候補タグをソートして、ソート結果の精度を向上させ、ビデオタグの正確性をさらに向上させる。
なお、複数の候補タグの粒度情報及び人気情報を同時に取得し、第1の相関性情報、各候補タグの粒度情報及び人気情報に基づいて、三者の加重和を計算し、計算結果に基づいて複数の候補タグをソートして、ソート結果の精度を向上させ、ビデオタグの正確性をさらに向上させる。
上記実施例を実現するために、本出願の実施例は、ビデオタグの生成装置をさらに提供する。図7は本出願の実施例により提供されるビデオタグの生成装置の概略構造図である。
図7に示すように、当該ビデオタグの生成装置700は、第1の取得モジュール710と、第2の取得モジュール720と、第1の計算モジュール730と、ソートモジュール740と、第1の生成モジュール750と、を含む。
第1の取得モジュール710は、ビデオの複数の候補タグを取得することに用いられ、
第2の取得モジュール720は、ビデオのビデオ情報を取得することに用いられ、
第1の計算モジュール730は、ビデオ情報と複数の候補タグの間の第1の相関性情報をそれぞれ計算することに用いられ、
ソートモジュール740は、第1の相関性情報に基づいて、複数の候補タグをソートすることに用いられ、
第1の生成モジュール750は、ソート結果に基づいて前記ビデオのタグを生成することに用いられる。
本出願の実施例の一つの可能的な実現方式において、当該装置は、
ビデオに対応する知識グラフまたは知識点グラフを取得するための第3の取得モジュールと、
知識グラフまたは知識点グラフに基づいて複数の候補タグ間の第2の相関性情報を計算するための第2の計算モジュールと、をさらに含み、ここで、ソートモジュールは、第1の相関性情報及び第2の相関性情報に基づいて複数の候補タグをソートすることに用いられる。
本出願の実施例の一つの可能的な実現方式において、第1の取得モジュール710は、
ビデオのビデオタイトルを取得し、及び
ビデオタイトルに基づいて候補タグを生成することに用いられる。
本出願の実施例の一つの可能的な実現方式において、第1の取得モジュール710は、
ビデオの作者タグを取得し、及び
作者タグに基づいて候補タグを生成することに用いられる。
本出願の実施例の一つの可能的な実現方式において、第1の取得モジュール710は、
ビデオの分類情報を取得し、及び
分類情報に基づいて候補タグを生成することに用いられる。
本出願の実施例の一つの可能的な実現方式において、第1の取得モジュール710は、
ビデオ中のテキスト情報を認識し、及び
テキスト情報に基づいて候補タグを生成することに用いられる。
本出願の実施例の一つの可能的な実現方式において、第1の取得モジュール710は、
ビデオ中の人物に対して顔認識を行って、人物の人物情報と出現時間を取得し、
出現時間に基づいて、人物がビデオ中の主要人物であるか否かを判断し、及び
人物が主要人物である場合、人物の人物情報に基づいて候補タグを生成することに用いられる。
本出願の実施例の一つの可能的な実現方式において、第1の計算モジュール730は、
ビデオ情報及び複数の候補タグを意味マッチングモデルに入力して、ビデオ情報と複数の候補タグの間の第1の相関性情報を生成することに用いられる。
本出願の実施例の一つの可能的な実現方式において、意味マッチングモデルは、第4の取得モジュール、第2の生成モジュール及びトレーニングモジュールによって取得され、
第4の取得モジュールは、サンプルビデオ情報、サンプルタグ、及びサンプルビデオ情報とサンプルタグの間のマーク相関性情報を取得することに用いられ、
第2の生成モジュールは、サンプルビデオ及びサンプルタグを初期意味マッチングモデルに入力して、予測相関性情報を生成することに用いられ、
トレーニングモジュールは、予測相関性情報及びマーク相関性情報に基づいて、初期意味マッチングモデルをトレーニングすることに用いられる。
本出願の実施例の一つの可能的な実現方式において、第2の取得モジュール720は、
ビデオのタイトルを取得し、
ビデオ中の人物の人物情報を取得し、
ビデオの分類情報を取得し、及び
ビデオのタイトル、人物情報及び分類情報に基づいてビデオ情報を生成することに用いられる。
本出願の実施例の一つの可能的な実現方式において、当該装置は、
複数の候補タグの長さ情報を取得するための第5の取得モジュールと、
複数の候補タグの長さ情報に基づいて、複数の候補タグのタグ粒度情報をそれぞれ生成するための第3の生成モジュールと、をさらに含み、ここで、ソートモジュールは、第1の相関性情報及びタグ粒度情報に基づいて、複数の候補タグをソートすることに用いられる。
本出願の実施例の一つの可能的な実現方式において、当該装置は、
複数の候補タグの人気情報を取得するための第6の取得モジュールをさらに含み、ここで、ソートモジュールは、第1の相関性情報及び人気情報に基づいて、複数の候補タグをソートすることに用いられる。
なお、上記のビデオタグの生成方法の実施例の説明は、当該実施例のビデオタグの生成装置にも適用され、ここでは説明を省略する。
本出願の実施例のビデオタグの生成装置は、ビデオの複数の候補タグ及びビデオ情報を取得し、ビデオ情報と複数の候補タグの間の第1の相関性情報をそれぞれ計算し、そして第1の相関性情報に基づいて、複数の候補タグをソートし、ソート結果に基づいてビデオのタグを生成する。これにより、ビデオ情報と各候補タグの間の第1の相関性情報に基づいて、複数の候補タグをソートし、ソート結果に基づいてビデオのタグを生成することにより、複数の候補タグの統合と利用を実現し、ビデオに正確で完全なタグを付け、ビデオタグの正確性と完全性を向上させ、ビデオ推奨の効果を向上させる。
本出願の実施例によれば、本出願は、電子機器及び読み取り可能な記憶媒体をさらに提供する。本出願の実施例によれば、コンピュータプログラムが提供される。当該コンピュータプログラムにおける命令が実行された場合に、上記ビデオタグの生成方法が実行される。
図8に示すように、それは本出願の実施例に係るビデオタグの生成方法の電子機器のブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、大型コンピュータ、及び他の適切なコンピュータなどの様々な形式のデジタルコンピュータを表すことを目的とする。電子機器は、パーソナルデジタル処理、携帯電話、スマートフォン、ウェアラブルデバイス、他の同様のコンピューティングデバイスなどの様々な形式のモバイルデバイスを表すこともできる。本明細書で示されるコンポーネント、それらの接続と関係、及びそれらの機能は単なる例であり、本明細書の説明及び/又は要求される本出願の実現を制限することを意図したものではない。
図8に示すように、当該電子機器は、一つ又は複数のプロセッサ801と、メモリ802と、高速インターフェースと低速インターフェースを含む各コンポーネントを接続するためのインターフェースと、を含む。各コンポーネントは、異なるバスで相互に接続され、共通のマザーボードに取り付けられるか、又は必要に基づいて他の方式で取り付けることができる。プロセッサは、外部入力/出力装置(インターフェースに結合されたディスプレイデバイスなど)にGUIの図形情報をディスプレイするためにメモリに記憶されている命令を含む、電子機器内に実行される命令を処理することができる。他の実施方式では、必要であれば、複数のプロセッサ及び/又は複数のバスを、複数のメモリと複数のメモリとともに使用することができる。同様に、複数の電子機器を接続することができ、各電子機器は、部分的な必要な操作(例えば、サーバアレイ、ブレードサーバ、又はマルチプロセッサシステムとする)を提供することができる。図8では、一つのプロセッサ801を例とする。
メモリ802は、本出願により提供される非一時的なコンピュータ読み取り可能な記憶媒体である。その中、前記メモリには、少なくとも一つのプロセッサによって実行される命令を記憶して、前記少なくとも一つのプロセッサが本出願により提供されるビデオタグの生成方法を実行することができるようにする。本出願の非一時的なコンピュータ読み取り可能な記憶媒体は、コンピュータが本出願により提供されるビデオタグの生成方法を実行するためのコンピュータ命令を記憶する。
メモリ802は、非一時的なコンピュータ読み取り可能な記憶媒体として、本出願の実施例におけるビデオタグの生成方法に対応するプログラム命令/モジュール(例えば、図7に示す第1の取得モジュール710、第2の取得モジュール720、第1の計算モジュール730、ソートモジュール740、及び第1の生成モジュール750)ように、非一時的なソフトウェアプログラム、非一時的なコンピュータ実行可能なプログラム及びモジュールを記憶するために用いられる。プロセッサ801は、メモリ802に記憶されている非一時的なソフトウェアプログラム、命令及びモジュールを実行することによって、サーバの様々な機能アプリケーション及びデータ処理を実行し、すなわち上記の方法の実施例におけるビデオタグの生成方法を実現する。
メモリ802は、ストレージプログラム領域とストレージデータ領域とを含むことができ、その中、ストレージプログラム領域は、オペレーティングシステム、少なくとも一つの機能に必要なアプリケーションプログラムを記憶することができ、ストレージデータ領域は、ビデオタグの生成方法に基づく電子機器の使用によって作成されたデータなどを記憶することができる。また、メモリ802は、高速ランダム存取メモリを含むことができ、非一時的なメモリをさらに含むことができ、例えば、少なくとも一つのディスクストレージデバイス、フラッシュメモリデバイス、又は他の非一時的なソリッドステートストレージデバイスである。いくつかの実施例では、メモリ802は、プロセッサ801に対して遠隔に設置されたメモリを含むことができ、これらの遠隔メモリは、ネットワークを介してビデオタグの生成方法の電子機器に接続されることができる。上記のネットワークの例は、インターネット、イントラネット、ローカルエリアネットワーク、モバイル通信ネットワーク、及びその組み合わせを含むが、これらに限定しない。
ビデオタグの生成方法の電子機器は、入力装置803と出力装置804とをさらに含むことができる。プロセッサ801、メモリ802、入力装置803、及び出力装置804は、バス又は他の方式を介して接続することができ、図8では、バスを介して接続することを例とする。
入力装置803は、入力された数字又は文字情報を受信することができ、及びビデオタグの生成方法の電子機器のユーザ設置及び機能制御に関するキー信号入力を生成することができ、例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、指示杆、一つ又は複数のマウスボタン、トラックボール、ジョイスティックなどの入力装置である。出力装置804は、ディスプレイデバイス、補助照明デバイス(例えば、LED)、及び触覚フィードバックデバイス(例えば、振動モータ)などを含むことができる。当該ディスプレイデバイスは、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、及びプラズマディスプレイを含むことができるが、これらに限定しない。いくつかの実施方式では、ディスプレイデバイスは、タッチスクリーンであってもよい。
本明細書で説明されるシステムと技術の様々な実施方式は、デジタル電子回路システム、集積回路システム、特定用途向けASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせで実現することができる。これらの様々な実施方式は、一つ又は複数のコンピュータプログラムで実施されることを含むことができ、当該一つ又は複数のコンピュータプログラムは、少なくとも一つのプログラマブルプロセッサを含むプログラム可能なシステムで実行及び/又は解釈されることができ、当該プログラマブルプロセッサは、特定用途向け又は汎用プログラマブルプロセッサであってもよく、ストレージシステム、少なくとも一つの入力装置、及び少なくとも一つの出力装置からデータ及び命令を受信し、データ及び命令を当該ストレージシステム、当該少なくとも一つの入力装置、及び当該少なくとも一つの出力装置に伝送することができる。
これらのコンピューティングプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、又はコードとも呼ばれる)は、プログラマブルプロセッサの機械命令、高レベルのプロセス及び/又はオブジェクト指向プログラミング言語、及び/又はアセンブリ/機械言語でこれらのコンピューティングプログラムを実施することを含む。本明細書に使用されるように、用語「機械読み取り可能な媒体」及び「コンピュータ読み取り可能な媒体」は、機械命令及び/又はデータをプログラマブルプロセッサに提供するために使用される任意のコンピュータプログラム製品、機器、及び/又は装置(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を指し、機械読み取り可能な信号である機械命令を受信する機械読み取り可能な媒体を含む。用語「機械読み取り可能な信号」は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意の信号を指す。
ユーザとのインタラクションを提供するために、コンピュータ上でここで説明されているシステム及び技術を実施することができ、当該コンピュータは、ユーザに情報を表示するためのディスプレイ装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザは、当該キーボード及び当該ポインティングデバイスによって入力をコンピュータに提供することができる。他の種類の装置は、ユーザとのインタラクションを提供するために用いられることもでき、例えば、ユーザに提供されるフィードバックは、任意の形式のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形式(音響入力と、音声入力と、触覚入力とを含む)でユーザからの入力を受信することができる。
ここで説明されるシステム及び技術は、バックエンドコンポーネントを含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェアコンポーネントを含むコンピューティングシステム(例えば、アプリケーションサーバー)、又はフロントエンドコンポーネントを含むコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータ、ユーザは、当該グラフィカルユーザインタフェース又は当該ウェブブラウザによってここで説明されるシステム及び技術の実施方式とインタラクションする)、又はこのようなバックエンドコンポーネントと、ミドルウェアコンポーネントと、フロントエンドコンポーネントの任意の組み合わせを含むコンピューティングシステムで実施することができる。任意の形式又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互に接続されることができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)と、ワイドエリアネットワーク(WAN)と、インターネットとを含む。
コンピュータシステムは、クライアントとサーバとを含むことができる。クライアントとサーバは、一般に、互いに離れており、通常に通信ネットワークを介してインタラクションする。対応するコンピュータ上で実行され、互いにクライアント-サーバ関係を有するコンピュータプログラムによってクライアントとサーバとの関係が生成される。
本出願の実施例の技術案によれば、ビデオ情報と各候補タグの間の第1の相関性情報に基づいて、複数の候補タグをソートし、ソート結果に基づいてビデオのタグを生成することにより、複数の候補タグの統合と利用を実現し、ビデオに正確で完全なタグを付け、ビデオタグの正確性と完全性を向上させ、ビデオ推奨の効果を向上させる。
本出願の説明において、「第1の」、「第2の」の用語は目的を説明するためだけに用いられるものであり、比較的な重要性を指示又は暗示するか、或いは示された技術的特徴の数を黙示的に指示すると理解してはいけない。そこで、「第1の」、「第2の」が限定されている特徴は一つ又はより多くの前記特徴を含むことを明示又は暗示するものである。本出願の説明において、明確且つ具体的な限定がない限り、「複数」とは、二つ又は二つ以上のことを意味する。
本出願の実施例を示して説明したが、上記実施例は例示するものであって、本出願を制限すると理解してはいけない。当業者は、本出願の原理及び主旨から逸脱することなく、これらの実施例に対して各種の変化、修正、切り替え及び変形を行うことができる。

Claims (27)

  1. ビデオタグの生成装置によって実現されるビデオタグの生成方法であって、
    ビデオの複数の候補タグを取得するステップと、
    前記ビデオのビデオ情報を取得するステップと、
    前記ビデオ情報と前記複数の候補タグの間の第1の相関性情報をそれぞれ計算するステップと、
    前記第1の相関性情報に基づいて、前記複数の候補タグをソートするステップと、
    ソート結果に基づいて前記ビデオのタグを生成するステップと、
    を含む、
    ことを特徴とするビデオタグの生成方法。
  2. 前記方法は、
    前記ビデオに対応する知識グラフまたは知識点グラフを取得するステップと、
    前記知識グラフまたは知識点グラフに基づいて前記複数の候補タグ間の第2の相関性情報を計算し、前記第1の相関性情報及び前記第2の相関性情報に基づいて前記複数の候補タグをソートするステップと、
    をさらに含む、
    ことを特徴とする請求項1に記載のビデオタグの生成方法。
  3. 前記ビデオの複数の候補タグを取得するステップは、
    前記ビデオのビデオタイトルを取得するステップと、
    前記ビデオタイトルに基づいて前記候補タグを生成するステップと、
    を含む、
    ことを特徴とする請求項1に記載のビデオタグの生成方法。
  4. 前記ビデオの複数の候補タグを取得するステップは、
    前記ビデオの作者タグを取得するステップと、
    前記作者タグに基づいて前記候補タグを生成するステップと、
    を含む、
    ことを特徴とする請求項1に記載のビデオタグの生成方法。
  5. 前記ビデオの複数の候補タグを取得するステップは、
    前記ビデオの分類情報を取得するステップと、
    前記分類情報に基づいて前記候補タグを生成するステップと、
    を含む、
    ことを特徴とする請求項1に記載のビデオタグの生成方法。
  6. 前記ビデオの複数の候補タグを取得するステップは、
    前記ビデオのテキスト情報を認識するステップと、
    前記テキスト情報に基づいて前記候補タグを生成するステップと、
    を含む、
    ことを特徴とする請求項1に記載のビデオタグの生成方法。
  7. 前記ビデオの複数の候補タグを取得するステップは、
    前記ビデオ中の人物に対して顔認識を行って、前記人物の人物情報と出現時間を取得するステップと、
    前記出現時間に基づいて、前記人物が前記ビデオ中の主要人物であるか否かを判断するステップと、
    前記人物が前記主要人物である場合、前記人物の人物情報に基づいて前記候補タグを生成するステップと、
    を含む、
    ことを特徴とする請求項1に記載のビデオタグの生成方法。
  8. 前記ビデオ情報と前記複数の候補タグの間の第1の相関性情報をそれぞれ計算するステップは、
    前記ビデオ情報及び前記複数の候補タグを意味マッチングモデルに入力して、前記ビデオ情報と前記複数の候補タグの間の第1の相関性情報を生成するステップを含む、
    ことを特徴とする請求項1に記載のビデオタグの生成方法。
  9. 前記意味マッチングモデルは、
    サンプルビデオ情報、サンプルタグ及び前記サンプルビデオ情報と前記サンプルタグの間のマーク相関性情報を取得するステップと、
    前記サンプルビデオ及び前記サンプルタグを初期意味マッチングモデルに入力して、予測相関性情報を生成するステップと、
    前記予測相関性情報及び前記マーク相関性情報に基づいて、前記初期意味マッチングモデルをトレーニングするステップと、
    によって取得される、
    ことを特徴とする請求項8に記載のビデオタグの生成方法。
  10. 前記ビデオのビデオ情報を取得するステップは、
    前記ビデオのタイトルを取得するステップと、
    前記ビデオ中の人物の人物情報を取得するステップと、
    前記ビデオの分類情報を取得するステップと、
    前記ビデオのタイトル、前記人物情報及び前記分類情報に基づいて前記ビデオ情報を生成するステップと、
    を含む、
    ことを特徴とする請求項1に記載のビデオタグの生成方法。
  11. 前記複数の候補タグの長さ情報を取得するステップと、
    前記複数の候補タグの長さ情報に基づいて、前記複数の候補タグのタグ粒度情報をそれぞれ生成し、前記第1の相関性情報及び前記タグ粒度情報に基づいて、前記複数の候補タグをソートするステップと、
    をさらに含む、
    ことを特徴とする請求項1に記載のビデオタグの生成方法。
  12. 前記複数の候補タグの人気情報を取得し、前記第1の相関性情報及び前記人気情報に基づいて、前記複数の候補タグをソートするステップをさらに含む、
    ことを特徴とする請求項1に記載のビデオタグの生成方法。
  13. ビデオタグの生成装置であって、
    ビデオの複数の候補タグを取得するための第1の取得モジュールと、
    前記ビデオのビデオ情報を取得するための第2の取得モジュールと、
    前記ビデオ情報と前記複数の候補タグの間の第1の相関性情報をそれぞれ計算するための第1の計算モジュールと、
    前記第1の相関性情報に基づいて、前記複数の候補タグをソートするためのソートモジュールと、
    ソート結果に基づいて前記ビデオのタグを生成するための第1の生成モジュールと、
    を含む、
    ことを特徴とするビデオタグの生成装置。
  14. 前記ビデオに対応する知識グラフまたは知識点グラフを取得するための第3の取得モジュールと、
    前記知識グラフまたは知識点グラフに基づいて前記複数の候補タグ間の第2の相関性情報を計算するための第2の計算モジュールと、をさらに含み、ここで、前記ソートモジュールは、前記第1の相関性情報及び前記第2の相関性情報に基づいて前記複数の候補タグをソートすることに用いられる、
    ことを特徴とする請求項13に記載のビデオタグの生成装置。
  15. 前記第1の取得モジュールは、
    前記ビデオのビデオタイトルを取得し、及び
    前記ビデオタイトルに基づいて前記候補タグを生成することに用いられる、
    ことを特徴とする請求項13に記載のビデオタグの生成装置。
  16. 前記第1の取得モジュールは、
    前記ビデオの作者タグを取得し、及び
    前記作者タグに基づいて前記候補タグを生成することに用いられる、
    ことを特徴とする請求項13に記載のビデオタグの生成装置。
  17. 前記第1の取得モジュールは、
    前記ビデオの分類情報を取得し、及び
    前記分類情報に基づいて前記候補タグを生成することに用いられる、
    ことを特徴とする請求項13に記載のビデオタグの生成装置。
  18. 前記第1の取得モジュールは、
    前記ビデオ中のテキスト情報を認識し、及び
    前記テキスト情報に基づいて前記候補タグを生成することに用いられる、
    ことを特徴とする請求項13に記載のビデオタグの生成装置。
  19. 前記第1の取得モジュールは、
    前記ビデオ中の人物に対して顔認識を行って、前記人物の人物情報と出現時間を取得し、
    前記出現時間に基づいて、前記人物が前記ビデオ中の主要人物であるか否かを判断し、及び
    前記人物が前記主要人物である場合、前記人物の人物情報に基づいて前記候補タグを生成することに用いられる、
    ことを特徴とする請求項13に記載のビデオタグの生成装置。
  20. 前記第1の計算モジュールは、
    前記ビデオ情報及び前記複数の候補タグを意味マッチングモデルに入力して、前記ビデオ情報と前記複数の候補タグの間の第1の相関性情報を生成することに用いられる、
    ことを特徴とする請求項13に記載のビデオタグの生成装置。
  21. 前記意味マッチングモデルは、第4の取得モジュール、第2の生成モジュール及びトレーニングモジュールによって取得され、
    前記第4の取得モジュールは、サンプルビデオ情報、サンプルタグ及び前記サンプルビデオ情報と前記サンプルタグの間のマーク相関性情報を取得することに用いられ、
    前記第2の生成モジュールは、前記サンプルビデオ及び前記サンプルタグを初期意味マッチングモデルに入力して、予測相関性情報を生成することに用いられ、
    前記トレーニングモジュールは、前記予測相関性情報及び前記マーク相関性情報に基づいて、前記初期意味マッチングモデルをトレーニングすることに用いられる、
    ことを特徴とする請求項20に記載のビデオタグの生成装置。
  22. 前記第2の取得モジュールは、
    前記ビデオのタイトルを取得し、
    前記ビデオ中の人物の人物情報を取得し、
    前記ビデオの分類情報を取得し、及び
    前記ビデオのタイトル、前記人物情報及び前記分類情報に基づいて前記ビデオ情報を生成することに用いられる、
    ことを特徴とする請求項13に記載のビデオタグの生成装置。
  23. 前記複数の候補タグの長さ情報を取得するための第5の取得モジュールと、
    前記複数の候補タグの長さ情報に基づいて、前記複数の候補タグのタグ粒度情報をそれぞれ生成するための第3の生成モジュールと、をさらに含み、ここで、前記ソートモジュールは、前記第1の相関性情報及び前記タグ粒度情報に基づいて、前記複数の候補タグをソートすることに用いられる、
    ことを特徴とする請求項13に記載のビデオタグの生成装置。
  24. 前記複数の候補タグの人気情報を取得するための第6の取得モジュールをさらに含み、ここで、前記ソートモジュールは、前記第1の相関性情報及び前記人気情報に基づいて、前記複数の候補タグをソートすることに用いられる、
    ことを特徴とする請求項13に記載のビデオタグの生成装置。
  25. 電子機器であって、
    少なくとも一つのプロセッサと、
    前記少なくとも一つのプロセッサと通信可能に接続されるメモリと、を含み、
    前記メモリには、前記少なくとも一つのプロセッサによって実行可能な命令が記憶されており、前記命令が前記少なくとも一つのプロセッサによって実行される場合、前記少なくとも一つのプロセッサが請求項1~12のいずれかに記載のビデオタグの生成方法を実行する、
    ことを特徴とする電子機器。
  26. コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータ命令は、前記コンピュータに請求項1~12のいずれかに記載のビデオタグの生成方法を実行させる、
    ことを特徴とするコンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体。
  27. コンピュータプログラムであって、
    前記コンピュータプログラムにおける命令が実行された場合に、請求項1~12のいずれかに記載のビデオタグの生成方法が実行される、
    ことを特徴とするコンピュータプログラム。
JP2020213352A 2020-06-03 2020-12-23 ビデオタグの生成方法、装置、電子機器及び記憶媒体 Active JP7080300B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010493783.7A CN111831854A (zh) 2020-06-03 2020-06-03 视频标签的生成方法、装置、电子设备和存储介质
CN202010493783.7 2020-06-03

Publications (2)

Publication Number Publication Date
JP2021190079A JP2021190079A (ja) 2021-12-13
JP7080300B2 true JP7080300B2 (ja) 2022-06-03

Family

ID=72897609

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020213352A Active JP7080300B2 (ja) 2020-06-03 2020-12-23 ビデオタグの生成方法、装置、電子機器及び記憶媒体

Country Status (5)

Country Link
US (1) US11508153B2 (ja)
EP (1) EP3920088A1 (ja)
JP (1) JP7080300B2 (ja)
KR (1) KR102510317B1 (ja)
CN (1) CN111831854A (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112084268B (zh) * 2020-09-04 2022-05-20 北京字节跳动网络技术有限公司 一种搜索结果展示的方法、装置及计算机存储介质
CN112784111B (zh) * 2021-03-12 2024-07-02 有半岛(北京)信息科技有限公司 视频分类方法、装置、设备及介质
CN113382279B (zh) * 2021-06-15 2022-11-04 北京百度网讯科技有限公司 直播推荐方法、装置、设备、存储介质以及计算机程序产品
CN113792115B (zh) * 2021-08-17 2024-03-22 北京百度网讯科技有限公司 实体相关性确定方法、装置、电子设备及存储介质
CN113722542A (zh) * 2021-08-31 2021-11-30 青岛聚看云科技有限公司 视频推荐方法及显示设备
JP2023077006A (ja) 2021-11-24 2023-06-05 株式会社豊田自動織機 内燃機関システムの制御装置
CN114338586B (zh) * 2021-12-21 2024-05-28 中国农业银行股份有限公司 一种消息推送方法、装置、电子设备及存储介质
CN114157882B (zh) * 2021-12-27 2024-04-30 未来电视有限公司 视频编目方法、装置、电子设备及计算机可读存储介质
CN115878849B (zh) * 2023-02-27 2023-05-26 北京奇树有鱼文化传媒有限公司 一种视频标签关联方法、装置和电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008268985A (ja) 2007-04-16 2008-11-06 Yahoo Japan Corp タグを付与する方法
JP2018169697A (ja) 2017-03-29 2018-11-01 西日本電信電話株式会社 映像データ処理装置、映像データ処理方法、及びコンピュータプログラム
CN108829893A (zh) 2018-06-29 2018-11-16 北京百度网讯科技有限公司 确定视频标签的方法、装置、存储介质和终端设备
CN110287375A (zh) 2019-05-30 2019-09-27 北京百度网讯科技有限公司 视频标签的确定方法、装置及服务器

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8098976B1 (en) * 2011-09-26 2012-01-17 Limelight Networks, Inc. Methods and systems for performing top concepts extraction
KR101031357B1 (ko) * 2009-07-15 2011-04-29 인하대학교 산학협력단 주요 배역을 추출하는 방법 및 장치
KR101658413B1 (ko) * 2009-09-22 2016-09-22 삼성전자주식회사 동영상에서의 인물 정보 추출방법 및 그 장치
US9020244B2 (en) * 2011-12-06 2015-04-28 Yahoo! Inc. Ranking and selecting representative video images
KR102073352B1 (ko) * 2014-06-27 2020-02-04 구글 엘엘씨 콘텐츠 성능 최적화를 위한 자동화된 클릭 타입 선택
CN104090955A (zh) * 2014-07-07 2014-10-08 科大讯飞股份有限公司 一种音视频标签自动标注方法及***
CN108509465B (zh) * 2017-02-28 2022-03-15 阿里巴巴集团控股有限公司 一种视频数据的推荐方法、装置和服务器
US10997413B2 (en) * 2018-03-23 2021-05-04 NthGen Software Inc. Method and system for obtaining vehicle target views from a video stream
CN110555136B (zh) * 2018-03-29 2022-07-08 阿里巴巴(中国)有限公司 一种视频标签的生成方法、装置及计算机存储介质
CN110691202A (zh) * 2019-08-28 2020-01-14 咪咕文化科技有限公司 视频剪辑方法、装置及计算机存储介质
CN110968736B (zh) * 2019-12-04 2021-02-02 深圳追一科技有限公司 视频生成方法、装置、电子设备及存储介质
CN111125435B (zh) * 2019-12-17 2023-08-11 北京百度网讯科技有限公司 视频标签的确定方法、装置和计算机设备
CN113132752B (zh) * 2019-12-30 2023-02-24 阿里巴巴集团控股有限公司 视频处理方法及装置
WO2022070908A1 (ja) * 2020-09-29 2022-04-07 株式会社ドワンゴ 動画配信装置、動画配信方法、および、記録媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008268985A (ja) 2007-04-16 2008-11-06 Yahoo Japan Corp タグを付与する方法
JP2018169697A (ja) 2017-03-29 2018-11-01 西日本電信電話株式会社 映像データ処理装置、映像データ処理方法、及びコンピュータプログラム
CN108829893A (zh) 2018-06-29 2018-11-16 北京百度网讯科技有限公司 确定视频标签的方法、装置、存储介质和终端设备
CN110287375A (zh) 2019-05-30 2019-09-27 北京百度网讯科技有限公司 视频标签的确定方法、装置及服务器

Also Published As

Publication number Publication date
US20210383121A1 (en) 2021-12-09
EP3920088A1 (en) 2021-12-08
US11508153B2 (en) 2022-11-22
KR20210040329A (ko) 2021-04-13
KR102510317B1 (ko) 2023-03-17
CN111831854A (zh) 2020-10-27
JP2021190079A (ja) 2021-12-13

Similar Documents

Publication Publication Date Title
JP7080300B2 (ja) ビデオタグの生成方法、装置、電子機器及び記憶媒体
CN112507715B (zh) 确定实体之间关联关系的方法、装置、设备和存储介质
JP7166322B2 (ja) モデルを訓練するための方法、装置、電子機器、記憶媒体およびコンピュータプログラム
JP7317791B2 (ja) エンティティ・リンキング方法、装置、機器、及び記憶媒体
KR102532152B1 (ko) 멀티 모달 콘텐츠 처리 방법, 장치, 기기 및 저장 매체
KR102565659B1 (ko) 정보 생성 방법 및 장치
JP2022013602A (ja) テキスト中のイベント抽出方法、装置、電子機器及び記憶媒体
JP7304370B2 (ja) ビデオ検索方法、装置、デバイス及び媒体
JP2021190087A (ja) テキスト認識処理方法、装置、電子機器及び記憶媒体
JP7264866B2 (ja) イベント関係の生成方法、装置、電子機器及び記憶媒体
JP7108675B2 (ja) 意味マッチング方法、装置、電子機器、記憶媒体及びコンピュータプログラム
JP7149993B2 (ja) 感情分析モデルの事前トレーニング方法、装置及び電子機器
CN111125435B (zh) 视频标签的确定方法、装置和计算机设备
CN111523326A (zh) 实体链指方法、装置、设备以及存储介质
JP2021101361A (ja) イベントトピックの生成方法、装置、機器及び記憶媒体
CN111737954B (zh) 文本相似度确定方法、装置、设备和介质
JP2021174516A (ja) ナレッジグラフ構築方法、装置、電子機器、記憶媒体およびコンピュータプログラム
CN111078878B (zh) 文本处理方法、装置、设备及计算机可读存储介质
US20220067439A1 (en) Entity linking method, electronic device and storage medium
JP2022050379A (ja) 意味検索方法、装置、電子機器、記憶媒体およびコンピュータプログラム
JP2021108098A (ja) レビュー情報の処理方法、装置、コンピュータ機器及び媒体
CN110674260B (zh) 语义相似模型的训练方法、装置、电子设备和存储介质
JP2021111334A (ja) 検索データに基づくヒューマンコンピュータ対話型インタラクションの方法、装置及び電子機器
JP7140913B2 (ja) 映像配信時効の決定方法及び装置
KR20210090576A (ko) 품질을 관리하는 방법, 장치, 기기, 저장매체 및 프로그램

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220524

R150 Certificate of patent or registration of utility model

Ref document number: 7080300

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150