JP7210089B2 - リソースの表示方法、装置、機器及びコンピュータプログラム - Google Patents
リソースの表示方法、装置、機器及びコンピュータプログラム Download PDFInfo
- Publication number
- JP7210089B2 JP7210089B2 JP2021544837A JP2021544837A JP7210089B2 JP 7210089 B2 JP7210089 B2 JP 7210089B2 JP 2021544837 A JP2021544837 A JP 2021544837A JP 2021544837 A JP2021544837 A JP 2021544837A JP 7210089 B2 JP7210089 B2 JP 7210089B2
- Authority
- JP
- Japan
- Prior art keywords
- sub
- video
- optical flow
- target
- videos
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 62
- 238000004590 computer program Methods 0.000 title claims description 7
- 230000003287 optical effect Effects 0.000 claims description 227
- 230000004044 response Effects 0.000 claims description 23
- 230000033001 locomotion Effects 0.000 claims description 14
- 230000008859 change Effects 0.000 claims description 12
- 230000011218 segmentation Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 description 15
- 230000002093 peripheral effect Effects 0.000 description 11
- 230000001133 acceleration Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 239000003086 colorant Substances 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000004927 fusion Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 239000000919 ceramic Substances 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7847—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/036—Insert-editing
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/28—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/23424—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for inserting or substituting an advertisement
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/266—Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
- H04N21/2668—Creating a channel for a dedicated end-user group, e.g. insertion of targeted commercials based on end-user profiles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4782—Web browsing, e.g. WebTV
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/812—Monomedia components thereof involving advertisement data
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Library & Information Science (AREA)
- Databases & Information Systems (AREA)
- Business, Economics & Management (AREA)
- Marketing (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Television Signal Processing For Recording (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本願実施例は、コンピュータ技術分野に関し、特に、リソースの表示方法、装置、機器及び記憶媒体に関する。
関連技術のリソースを表示するプロセスでは、プロのデザイナが、ビデオ内で手動検索することにより、リソースを表示できる位置を決定し、当該位置にリソースを表示する。
本願実施例を実現するプロセスにおいて、発明者は、関連技術に少なくとも以下の問題があることを発見した。
関連技術において、プロのデザイナによって、ビデオ内で手動検索することにより、リソースを表示できる位置を決定し、手動検索は、効率が低く、大量の時間と労力を費やし、それにより、リソースを表示する効率を低下させる。
ターゲットビデオの1つ又は複数のターゲットサブビデオを取得するステップであって、各ターゲットサブビデオは、複数の画像フレームを含む、ステップと、
任意の1つのターゲットサブビデオの画像フレームに基づいて、前記任意の1つのターゲットサブビデオの少なくとも1つのキーフレームを取得するステップと、
カラークラスタリングに従って、前記任意の1つのターゲットサブビデオの任意の1つのキーフレームを複数の領域に分割し、前記複数の領域のうち、面積要求を満たす領域を前記任意の1つのキーフレームの選択可能領域として使用するステップと、
前記任意の1つのターゲットサブビデオの各キーフレームの選択可能領域を、前記任意の1つのターゲットサブビデオの選択可能領域として使用し、各ターゲットサブビデオの選択可能領域からターゲット領域を選択して、前記ターゲット領域でリソースを表示するステップと、を含む。
ターゲットビデオの1つ又は複数のターゲットサブビデオを取得し、各ターゲットサブビデオは、複数の画像フレームを含むように構成される、第1取得モジュールと、
任意の1つのターゲットサブビデオの画像フレームに基づいて、前記任意の1つのターゲットサブビデオの少なくとも1つのキーフレームを取得するように構成される、第2取得モジュールと、
カラークラスタリングに従って、前記任意の1つのターゲットサブビデオの任意の1つのキーフレームを複数の領域に分割するように構成される、分割モジュールと、
前記複数の領域のうち、面積要求を満たす領域を前記任意の1つのキーフレームの選択可能領域として使用し、前記任意の1つのターゲットサブビデオの各キーフレームの選択可能領域を、前記任意の1つのターゲットサブビデオの選択可能領域として使用し、各ターゲットサブビデオの選択可能領域からターゲット領域を選択するように構成される、選択モジュールと、
前記ターゲット領域でリソースを表示するように構成される、表示モジュールと、を備える。
本願実施例の目的、技術的解決策及び利点をより明確にするために、以下は、図面を参照して本願実施例の実施形態をさらに詳細に説明する。
ステップ201において、ターゲットビデオの1つ又は複数のターゲットサブビデオを取得し、各ターゲットサブビデオは、複数の画像フレームを含む。
ステップ4において、すべてのピクセルが、異なるセットに入るまで、ステップ2及びステップ3を繰り返し、この場合、各セットは、すべて収束する。
同じ技術構想に基づいて、図8を参照すると、本願実施例は、リソースの表示装置を提供し、当該装置は、
ターゲット領域でリソースを表示するように構成される、表示モジュール805と、を備える。
プロセッサ901は、1つ又は複数の4コアプロセッサ又は8コアプロセッサなどの処理コアを備えることができる。プロセッサ901は、デジタル信号プロセッサ(DSP:Digital Signal Processing)、フィールドプログラマブルゲートアレイ(FPGA:Field-Programmable Gate Array)、プログラマブルロジックアレイ(PLA:Programmable Logic Array)のうちの少なくとも1つのハードウェアの形を使用して実現されることができる。プロセッサ901は、メインプロセッサ及びセカンダリプロセッサを備えることもでき、メインプロセッサは、アウェイク状態でデータを処理するために使用されるプロセッサであり、中央処理装置(CPU:Central Processing Unit)とも称し、セカンダリプロセッサは、スタンバイ状態でデータを処理するために使用される低電力プロセッサである。いくつかの実施例において、プロセッサ901は、グラフィックスプロセッサ(GPU:Graphics Processing Unit)が統合されてもよく、GPUは、ディスプレイ画面に表示される必要があるコンテンツをレンダリング及び描画するために使用される。いくつかの実施例において、プロセッサ901は、人工知能(AI:Artificial Intelligence)プロセッサをさらに備えることができ、当該AIプロセッサは、機械学習に関する計算操作を処理するために使用される。
上記の本願実施例の番号は、実施例の優劣を表すものではなく、説明の便宜を図るためのものである。
12 サーバ
801 第1取得モジュール
802 第2取得モジュール
803 分割モジュール
804 選択モジュール
805 表示モジュール
901 プロセッサ
902 メモリ
903 周囲機器インターフェース
904 無線周波数回路
905 表示スクリーン
905 ディスプレイスクリーン
905 タッチスクリーン
906 カメラコンポーネント
907 オーディオ回路
908 測位コンポーネント
908 コンポ―ネット
909 電源
910 センサ
911 加速度センサ
912 ジャイロスコープセンサ
913 圧力センサ
914 指紋センサ
915 光学センサ
916 近接センサ
Claims (14)
- コンピュータ機器が実行する、リソースの表示方法であって、
ターゲットビデオの1つ又は複数のターゲットサブビデオを取得するステップであって、前記1つ又は複数のターゲットサブビデオの各ターゲットサブビデオは、複数の画像フレームを含む、ステップと、
前記1つ又は複数のターゲットサブビデオの任意の1つのターゲットサブビデオの前記複数の画像フレームに基づいて、前記任意の1つのターゲットサブビデオの少なくとも1つのキーフレームを取得するステップと、
カラークラスタリングに従って、前記任意の1つのターゲットサブビデオの前記少なくとも1つのキーフレームの各キーフレームを複数の領域に分割し、前記複数の領域のうち、面積要求を満たす領域を前記各キーフレームの選択可能領域として使用するステップと、
前記任意の1つのターゲットサブビデオの前記各キーフレームの選択可能領域を、前記任意の1つのターゲットサブビデオの選択可能領域として使用し、前記各ターゲットサブビデオの選択可能領域からターゲット領域を選択して、前記ターゲット領域でリソースを表示するステップと、
を含み、
前記複数の領域のうち、面積要求を満たす領域を前記各キーフレームの選択可能領域として使用する前記ステップは、
前記各キーフレームの面積に対する前記複数の領域のうちの任意の1つの領域の面積の比率が、第3閾値を超えることに応答して、前記任意の1つの領域を前記各キーフレームの選択可能領域として使用するステップ
を含むことを特徴とする、リソースの表示方法。 - ターゲットビデオの1つ又は複数のターゲットサブビデオを取得する前記ステップは、
前記ターゲットビデオの複数のサブビデオのうちの任意の1つのサブビデオに対して、前記任意の1つのサブビデオのオプティカルフロー情報を取得するステップと、
前記任意の1つのサブビデオのオプティカルフロー情報が、オプティカルフロー要求を満たさないことに応答して、前記任意の1つのサブビデオを削除し、削除されていないサブビデオのうちの1つ又は複数のサブビデオをターゲットサブビデオとして使用するステップと、
を含むことを特徴とする、請求項1に記載のリソースの表示方法。 - 前記オプティカルフロー情報は、前記任意の1つのサブビデオの再生順序に従って、前の再生順序の画像フレームから後の再生順序の隣接する画像フレームへの動き変化を指すオプティカルフロー密度を含み、前記任意の1つのサブビデオのオプティカルフロー情報は、前記任意の1つのサブビデオの2つの隣接する画像フレームごとの間のオプティカルフロー密度と、前記任意の1つのサブビデオの平均オプティカルフロー密度とを含み、
前記任意の1つのサブビデオのオプティカルフロー情報が、オプティカルフロー要求を満たさないことに応答して、前記任意の1つのサブビデオを削除する前記ステップは、
前記任意の1つのサブビデオの平均オプティカルフロー密度に対する前記任意の1つのサブビデオの任意の2つの隣接する画像フレーム間のオプティカルフロー密度の比率が、第1閾値を超えることに応答して、前記任意の1つのサブビデオを削除するステップを含む
ことを特徴とする、請求項2に記載のリソースの表示方法。 - 前記オプティカルフロー情報は、オプティカルフロー角度を含み、前記任意の1つのサブビデオのオプティカルフロー情報は、前記任意の1つのサブビデオの各画像フレームのオプティカルフロー角度、前記任意の1つのサブビデオの平均オプティカルフロー角度、及び前記任意の1つのサブビデオのオプティカルフロー角度標準差を含み、
前記任意の1つのサブビデオのオプティカルフロー情報が、オプティカルフロー要求を満たさないことに応答して、前記任意の1つのサブビデオを削除する前記ステップは、
前記任意の1つのサブビデオのオプティカルフロー角度標準差に対する第1数値の比率が、第2閾値を超えることに応答して、前記任意の1つのサブビデオを削除するステップを含み、前記第1数値は、前記任意の1つのサブビデオの任意の1つの画像フレームのオプティカルフロー角度と、前記任意の1つのサブビデオの平均オプティカルフロー角度との差の絶対値を示す
ことを特徴とする、請求項2に記載のリソースの表示方法。 - 前記オプティカルフロー情報は、オプティカルフロー密度とオプティカルフロー角度を含み、前記任意の1つのサブビデオのオプティカルフロー情報は、前記任意の1つのサブビデオの2つの隣接する画像フレームごとの間のオプティカルフロー密度、前記任意の1つのサブビデオの平均オプティカルフロー密度、前記任意の1つのサブビデオの各画像フレームのオプティカルフロー角度、前記任意の1つのサブビデオの平均オプティカルフロー角度及び前記任意の1つのサブビデオのオプティカルフロー角度標準差を含み、
前記任意の1つのサブビデオのオプティカルフロー情報が、オプティカルフロー要求を満たさないことに応答して、前記任意の1つのサブビデオを削除する前記ステップは、
前記任意の1つのサブビデオの平均オプティカルフロー密度に対する前記任意の1つのサブビデオの任意の2つの隣接する画像フレーム間のオプティカルフロー密度の比率が、第1閾値を超え、且つ、前記任意の1つのサブビデオのオプティカルフロー角度標準差に対する第1数値の比率が、第2閾値を超えることに応答して、前記任意の1つのサブビデオを削除するステップを含み、前記第1数値は、前記任意の1つのサブビデオの任意の1つの画像フレームのオプティカルフロー角度と、前記任意の1つのサブビデオの平均オプティカルフロー角度との差の絶対値を示す
ことを特徴とする、請求項2に記載のリソースの表示方法。 - ターゲットビデオの1つ又は複数のターゲットサブビデオを取得する前記ステップは、
ターゲットビデオをショットに応じて分割し、分割により得られたサブビデオから1つ又は複数のターゲットサブビデオを取得するステップ
を含むことを特徴とする、請求項1ないし5のいずれか一項に記載のリソースの表示方法。 - リソースの表示装置であって、
ターゲットビデオの1つ又は複数のターゲットサブビデオを取得するように構成される第1取得モジュールであって、前記1つ又は複数のターゲットサブビデオの各ターゲットサブビデオは、複数の画像フレームを含む、第1取得モジュールと、
前記1つ又は複数のターゲットサブビデオの任意の1つのターゲットサブビデオの前記複数の画像フレームに基づいて、前記任意の1つのターゲットサブビデオの少なくとも1つのキーフレームを取得するように構成される、第2取得モジュールと、
カラークラスタリングに従って、前記任意の1つのターゲットサブビデオの前記少なくとも1つのキーフレームの各キーフレームを複数の領域に分割するように構成される、分割モジュールと、
前記複数の領域のうち、面積要求を満たす領域を前記各キーフレームの選択可能領域として使用し、前記任意の1つのターゲットサブビデオの前記各キーフレームの選択可能領域を、前記任意の1つのターゲットサブビデオの選択可能領域として使用し、前記各ターゲットサブビデオの選択可能領域からターゲット領域を選択するように構成される、選択モジュールと、
前記ターゲット領域でリソースを表示するように構成される、表示モジュールと、
を備え、
前記選択モジュールは、前記各キーフレームの面積に対する前記複数の領域のうちの任意の1つの領域の面積の比率が、第3閾値を超えることに応答して、前記任意の1つの領域を前記各キーフレームの選択可能領域として使用するように構成されることを特徴とする、リソースの表示装置。 - 前記第1取得モジュールは、前記ターゲットビデオの複数のサブビデオのうちの任意の1つのサブビデオに対して、前記任意の1つのサブビデオのオプティカルフロー情報を取得し、前記任意の1つのサブビデオのオプティカルフロー情報が、オプティカルフロー要求を満たしていないことに応答して、前記任意の1つのサブビデオを削除し、削除されていないサブビデオのうちの1つ又は複数のサブビデオをターゲットサブビデオとして使用するように構成される
ことを特徴とする、請求項7に記載のリソースの表示装置。 - 前記オプティカルフロー情報は、前記任意の1つのサブビデオの再生順序に従って、前の再生順序の画像フレームから後の再生順序の隣接する画像フレームへの動き変化を指すオプティカルフロー密度を含み、前記任意の1つのサブビデオのオプティカルフロー情報は、前記任意の1つのサブビデオの2つの隣接する画像フレームごとの間のオプティカルフロー密度と、前記任意の1つのサブビデオの平均オプティカルフロー密度とを含み、前記第1取得モジュールは、前記任意の1つのサブビデオの平均オプティカルフロー密度に対する前記任意の1つのサブビデオの任意の2つの隣接する画像フレーム間のオプティカルフロー密度の比率が、第1閾値を超えることに応答して、前記任意の1つのサブビデオを削除するように構成される
ことを特徴とする、請求項8に記載のリソースの表示装置。 - 前記オプティカルフロー情報は、オプティカルフロー角度を含み、前記任意の1つのサブビデオのオプティカルフロー情報は、前記任意の1つのサブビデオの各画像フレームのオプティカルフロー角度、前記任意の1つのサブビデオの平均オプティカルフロー角度、及び前記任意の1つのサブビデオのオプティカルフロー角度標準差を含み、前記第1取得モジュールは、前記任意の1つのサブビデオのオプティカルフロー角度標準差に対する第1数値の比率が、第2閾値を超えることに応答して、前記任意の1つのサブビデオを削除するように構成され、前記第1数値は、前記任意の1つのサブビデオの任意の1つの画像フレームのオプティカルフロー角度と、前記任意の1つのサブビデオの平均オプティカルフロー角度との差の絶対値を示す
ことを特徴とする、請求項8に記載のリソースの表示装置。 - 前記オプティカルフロー情報は、オプティカルフロー密度とオプティカルフロー角度を含み、前記任意の1つのサブビデオのオプティカルフロー情報は、前記任意の1つのサブビデオの2つの隣接する画像フレームごとの間のオプティカルフロー密度、前記任意の1つのサブビデオの平均オプティカルフロー密度、前記任意の1つのサブビデオの各画像フレームのオプティカルフロー角度、前記任意の1つのサブビデオの平均オプティカルフロー角度及び前記任意の1つのサブビデオのオプティカルフロー角度標準差を含み、前記第1取得モジュールは、前記任意の1つのサブビデオの平均オプティカルフロー密度に対する前記任意の1つのサブビデオの任意の2つの隣接する画像フレーム間のオプティカルフロー密度の比率が、第1閾値を超え、且つ、前記任意の1つのサブビデオのオプティカルフロー角度標準差に対する第1数値の比率が、第2閾値を超えることに応答して、前記任意の1つのサブビデオを削除するように構成され、前記第1数値は、前記任意の1つのサブビデオの任意の1つの画像フレームのオプティカルフロー角度と、前記任意の1つのサブビデオの平均オプティカルフロー角度との差の絶対値を示す
ことを特徴とする、請求項8に記載のリソースの表示装置。 - 前記第1取得モジュールは、ターゲットビデオをショットに応じて分割し、分割により得られたサブビデオから1つ又は複数のターゲットサブビデオを取得するように構成される
ことを特徴とする、請求項7ないし11のいずれか一項に記載のリソースの表示装置。 - プロセッサとメモリを備える、コンピュータ機器であって、前記メモリは、少なくとも1つの命令を記憶し、前記少なくとも1つの命令は、前記プロセッサによって実行されるとき、請求項1ないし6のいずれか一項に記載のリソースの表示方法のステップを実現することを特徴とする、コンピュータ機器。
- コンピュータ命令を含む、コンピュータプログラムであって、
前記コンピュータ命令は、コンピュータ可読記憶媒体に記憶され、コンピュータ機器のプロセッサは、前記コンピュータ可読記憶媒体から前記コンピュータ命令を読み取り、プロセッサは、前記コンピュータ命令を実行して、前記コンピュータ機器に請求項1ないし6のいずれか一項に記載のリソースの表示方法を実行させる
ことを特徴とする、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910550282.5 | 2019-06-24 | ||
CN201910550282.5A CN110290426B (zh) | 2019-06-24 | 2019-06-24 | 展示资源的方法、装置、设备及存储介质 |
PCT/CN2020/097192 WO2020259412A1 (zh) | 2019-06-24 | 2020-06-19 | 展示资源的方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022519355A JP2022519355A (ja) | 2022-03-23 |
JP7210089B2 true JP7210089B2 (ja) | 2023-01-23 |
Family
ID=68004686
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021544837A Active JP7210089B2 (ja) | 2019-06-24 | 2020-06-19 | リソースの表示方法、装置、機器及びコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210335391A1 (ja) |
EP (1) | EP3989591A4 (ja) |
JP (1) | JP7210089B2 (ja) |
CN (1) | CN110290426B (ja) |
WO (1) | WO2020259412A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110290426B (zh) * | 2019-06-24 | 2022-04-19 | 腾讯科技(深圳)有限公司 | 展示资源的方法、装置、设备及存储介质 |
CN113676753B (zh) * | 2021-10-21 | 2022-02-15 | 北京拾音科技文化有限公司 | Vr场景中展示视频的方法、装置、电子设备和存储介质 |
CN114283356B (zh) * | 2021-12-08 | 2022-11-29 | 上海韦地科技集团有限公司 | 一种移动图像的采集分析***及方法 |
CN116168045B (zh) * | 2023-04-21 | 2023-08-18 | 青岛尘元科技信息有限公司 | 扫变镜头的分割方法和***、存储介质及电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004521571A (ja) | 2001-06-25 | 2004-07-15 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | ビデオにおける重ね書き要素の適応的配置 |
WO2012005242A1 (ja) | 2010-07-05 | 2012-01-12 | 日本電気株式会社 | 画像処理装置及び画像分割方法 |
US20150078733A1 (en) | 2008-05-28 | 2015-03-19 | Mirriad Limited | Apparatus and method for identifying insertion zones in video material and for inserting additional material into the insertion zones |
US20160142792A1 (en) | 2014-01-24 | 2016-05-19 | Sk Planet Co., Ltd. | Device and method for inserting advertisement by using frame clustering |
JP2018136895A (ja) | 2017-02-24 | 2018-08-30 | 沖電気工業株式会社 | 画像処理装置およびプログラム |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6031930A (en) * | 1996-08-23 | 2000-02-29 | Bacus Research Laboratories, Inc. | Method and apparatus for testing a progression of neoplasia including cancer chemoprevention testing |
JP3781835B2 (ja) * | 1996-10-04 | 2006-05-31 | 日本放送協会 | 動画像領域分割装置 |
CN102460433A (zh) * | 2009-06-15 | 2012-05-16 | 皇家飞利浦电子股份有限公司 | 选择代表图像的方法和设备 |
US8369686B2 (en) * | 2009-09-30 | 2013-02-05 | Microsoft Corporation | Intelligent overlay for video advertising |
CN102148919B (zh) * | 2010-02-09 | 2015-05-27 | 新奥特(北京)视频技术有限公司 | 一种球类检测的方法及*** |
JP2012015894A (ja) * | 2010-07-02 | 2012-01-19 | Jvc Kenwood Corp | 色補正装置及び方法 |
CN103297811A (zh) * | 2012-02-24 | 2013-09-11 | 北京明日时尚信息技术有限公司 | 一种智能嵌入式视频广告的实现方法 |
CN103092963A (zh) * | 2013-01-21 | 2013-05-08 | 信帧电子技术(北京)有限公司 | 一种视频摘要生成方法和装置 |
US10438631B2 (en) * | 2014-02-05 | 2019-10-08 | Snap Inc. | Method for real-time video processing involving retouching of an object in the video |
JP6352126B2 (ja) * | 2014-09-17 | 2018-07-04 | ヤフー株式会社 | 広告表示装置、広告表示方法、及び広告表示プログラム |
CN105513098B (zh) * | 2014-09-26 | 2020-01-21 | 腾讯科技(北京)有限公司 | 一种图像处理的方法和装置 |
CN105141987B (zh) * | 2015-08-14 | 2019-04-05 | 京东方科技集团股份有限公司 | 广告植入方法和广告植入*** |
US10127945B2 (en) * | 2016-03-15 | 2018-11-13 | Google Llc | Visualization of image themes based on image content |
WO2017165538A1 (en) * | 2016-03-22 | 2017-09-28 | Uru, Inc. | Apparatus, systems, and methods for integrating digital media content into other digital media content |
CN106340023B (zh) * | 2016-08-22 | 2019-03-05 | 腾讯科技(深圳)有限公司 | 图像分割的方法和装置 |
CN106503632A (zh) * | 2016-10-10 | 2017-03-15 | 南京理工大学 | 一种基于视频分析的自动扶梯智能安全监测方法 |
CN107103301B (zh) * | 2017-04-24 | 2020-03-10 | 上海交通大学 | 视频目标时空最大稳定性判别性颜色区域匹配方法和*** |
US10096169B1 (en) * | 2017-05-17 | 2018-10-09 | Samuel Chenillo | System for the augmented assessment of virtual insertion opportunities |
TWI651662B (zh) * | 2017-11-23 | 2019-02-21 | 財團法人資訊工業策進會 | 影像標註方法、電子裝置及非暫態電腦可讀取儲存媒體 |
CN108052876B (zh) * | 2017-11-28 | 2022-02-11 | 广东数相智能科技有限公司 | 基于图像识别的区域发展评估方法及装置 |
CN108921130B (zh) * | 2018-07-26 | 2022-03-01 | 聊城大学 | 基于显著性区域的视频关键帧提取方法 |
US10699137B2 (en) * | 2018-08-14 | 2020-06-30 | Verizon Connect Ireland Limited | Automatic collection and classification of harsh driving events in dashcam videos |
CN110290426B (zh) * | 2019-06-24 | 2022-04-19 | 腾讯科技(深圳)有限公司 | 展示资源的方法、装置、设备及存储介质 |
-
2019
- 2019-06-24 CN CN201910550282.5A patent/CN110290426B/zh active Active
-
2020
- 2020-06-19 JP JP2021544837A patent/JP7210089B2/ja active Active
- 2020-06-19 WO PCT/CN2020/097192 patent/WO2020259412A1/zh unknown
- 2020-06-19 EP EP20831534.1A patent/EP3989591A4/en active Pending
-
2021
- 2021-07-09 US US17/372,107 patent/US20210335391A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004521571A (ja) | 2001-06-25 | 2004-07-15 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | ビデオにおける重ね書き要素の適応的配置 |
US20150078733A1 (en) | 2008-05-28 | 2015-03-19 | Mirriad Limited | Apparatus and method for identifying insertion zones in video material and for inserting additional material into the insertion zones |
WO2012005242A1 (ja) | 2010-07-05 | 2012-01-12 | 日本電気株式会社 | 画像処理装置及び画像分割方法 |
US20160142792A1 (en) | 2014-01-24 | 2016-05-19 | Sk Planet Co., Ltd. | Device and method for inserting advertisement by using frame clustering |
JP2018136895A (ja) | 2017-02-24 | 2018-08-30 | 沖電気工業株式会社 | 画像処理装置およびプログラム |
Non-Patent Citations (1)
Title |
---|
張よう, 外6名,"ニュース文と画像内容の一致性を考慮した複数ニュース映像の要約",電子情報通信学会技術研究報告,日本,一般社団法人電子情報通信学会,2016年02月29日,第115巻, 第495号,p.67-72 |
Also Published As
Publication number | Publication date |
---|---|
US20210335391A1 (en) | 2021-10-28 |
CN110290426B (zh) | 2022-04-19 |
CN110290426A (zh) | 2019-09-27 |
EP3989591A4 (en) | 2022-08-17 |
JP2022519355A (ja) | 2022-03-23 |
EP3989591A1 (en) | 2022-04-27 |
WO2020259412A1 (zh) | 2020-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11189037B2 (en) | Repositioning method and apparatus in camera pose tracking process, device, and storage medium | |
US20200272825A1 (en) | Scene segmentation method and device, and storage medium | |
JP7058760B2 (ja) | 画像処理方法およびその、装置、端末並びにコンピュータプログラム | |
WO2021008456A1 (zh) | 图像处理方法、装置、电子设备及存储介质 | |
JP7210089B2 (ja) | リソースの表示方法、装置、機器及びコンピュータプログラム | |
WO2020221012A1 (zh) | 图像特征点的运动信息确定方法、任务执行方法和设备 | |
CN110059685B (zh) | 文字区域检测方法、装置及存储介质 | |
CN108776822B (zh) | 目标区域检测方法、装置、终端及存储介质 | |
CN110647881B (zh) | 确定图像对应的卡片类型的方法、装置、设备及存储介质 | |
CN110796248A (zh) | 数据增强的方法、装置、设备及存储介质 | |
CN110675412A (zh) | 图像分割方法、图像分割模型的训练方法、装置及设备 | |
CN111754386B (zh) | 图像区域屏蔽方法、装置、设备及存储介质 | |
CN110853124B (zh) | 生成gif动态图的方法、装置、电子设备及介质 | |
CN110675473B (zh) | 生成gif动态图的方法、装置、电子设备及介质 | |
CN111857793B (zh) | 网络模型的训练方法、装置、设备及存储介质 | |
CN111325220A (zh) | 图像生成方法、装置、设备及存储介质 | |
CN112381729B (zh) | 图像处理方法、装置、终端及存储介质 | |
CN110728167A (zh) | 文本检测方法、装置及计算机可读存储介质 | |
CN111275607B (zh) | 界面显示方法、装置、计算机设备及存储介质 | |
CN111639639B (zh) | 检测文本区域的方法、装置、设备及存储介质 | |
CN113592874B (zh) | 图像显示方法、装置和计算机设备 | |
WO2021243955A1 (zh) | 主色调提取方法及装置 | |
CN112817768B (zh) | 动画处理方法、装置、设备及计算机可读存储介质 | |
CN113409235B (zh) | 一种灭点估计的方法及装置 | |
CN110458289B (zh) | 多媒体分类模型的构建方法、多媒体分类方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210802 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210802 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220809 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220829 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230105 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7210089 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |