JP7163397B2 - 画像処理方法、候補評価方法および関連装置 - Google Patents
画像処理方法、候補評価方法および関連装置 Download PDFInfo
- Publication number
- JP7163397B2 JP7163397B2 JP2020543216A JP2020543216A JP7163397B2 JP 7163397 B2 JP7163397 B2 JP 7163397B2 JP 2020543216 A JP2020543216 A JP 2020543216A JP 2020543216 A JP2020543216 A JP 2020543216A JP 7163397 B2 JP7163397 B2 JP 7163397B2
- Authority
- JP
- Japan
- Prior art keywords
- candidate
- time
- series
- sequence
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Quality & Reliability (AREA)
- Computational Linguistics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本願は2019年06月24日に中国国家知識産権局へ提出された、出願番号2019105523605、出願の名称「画像処理方法、候補評価方法および関連装置」の中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
前記第1のオブジェクト境界確率系列と前記第2のオブジェクト境界確率系列のうちの終了確率系列の融合処理を行い、目標終了確率系列を得るステップを含み、前記目標境界確率系列は前記目標開始確率系列および前記目標終了確率系列のうちの少なくとも一つを含む。
または、前記目標境界確率系列に含まれる目標開始確率系列および前記第1のオブジェクト境界確率系列に含まれる終了確率系列に基づき、前記時系列オブジェクト候補集合を生成するステップ、
または、前記目標境界確率系列に含まれる目標開始確率系列および前記第2のオブジェクト境界確率系列に含まれる終了確率系列に基づき、前記時系列オブジェクト候補集合を生成するステップ、
または、前記第1のオブジェクト境界確率系列に含まれる開始確率系列および前記目標境界確率系列に含まれる目標終了確率系列に基づき、前記時系列オブジェクト候補集合を生成するステップ、
または、前記第2のオブジェクト境界確率系列に含まれる開始確率系列および前記目標境界確率系列に含まれる目標終了確率系列に基づき、前記時系列オブジェクト候補集合を生成するステップを含む。
ビデオストリームの第1特徴系列を取得するための取得ユニットであって、前記第1特徴系列は前記ビデオストリームの複数のセグメントにおける各々のセグメントの特徴データを含む取得ユニットと、
前記第1特徴系列に基づき、前記複数のセグメントがオブジェクト境界に属する確率を含む第1のオブジェクト境界確率系列を得るステップと、
前記第1特徴系列に含まれる特徴データと同じでありかつ並び順が反対になる前記ビデオストリームの第2特徴系列に基づき、第2のオブジェクト境界確率系列を得るステップと、を実行するための処理ユニットと、
前記第1のオブジェクト境界確率系列および前記第2のオブジェクト境界確率系列に基づき、時系列オブジェクト候補集合を生成するための生成ユニットと、を含んでもよい画像処理装置を提供する。
例えば、本願は以下の項目を提供する。
(項目1)
ビデオストリームの第1特徴系列を取得するステップであって、前記第1特徴系列は前記ビデオストリームの複数のセグメントにおける各々のセグメントの特徴データを含むステップと、
前記第1特徴系列に基づき、前記複数のセグメントがオブジェクト境界に属する確率を含む第1のオブジェクト境界確率系列を得るステップと、
前記ビデオストリームの第2特徴系列に基づき、第2のオブジェクト境界確率系列を得るステップであって、前記第2特徴系列及び前記第1特徴系列に含まれる特徴データは同じであり、かつ並び順が反対になるステップと、
前記第1のオブジェクト境界確率系列および前記第2のオブジェクト境界確率系列に基づき、時系列オブジェクト候補集合を生成するステップと、を含むことを特徴とする、画像処理方法。
(項目2)
前記ビデオストリームの第2特徴系列に基づき、第2のオブジェクト境界確率系列を得る前記ステップの前に、さらに、
前記第1特徴系列に対して時系列逆転処理を行い、前記第2特徴系列を得るステップを含むことを特徴とする、項目1に記載の方法。
(項目3)
前記第1のオブジェクト境界確率系列および前記第2のオブジェクト境界確率系列に基づき、時系列オブジェクト候補集合を生成する前記ステップは、
前記第1のオブジェクト境界確率系列と前記第2のオブジェクト境界確率系列との融合処理を行い、目標境界確率系列を得るステップと、
前記目標境界確率系列に基づき、前記時系列オブジェクト候補集合を生成するステップと、を含むことを特徴とする、項目1または2に記載の方法。
(項目4)
前記第1のオブジェクト境界確率系列と前記第2のオブジェクト境界確率系列との融合処理を行い、目標境界確率系列を得る前記ステップは、
前記第2のオブジェクト境界確率系列に対して時系列逆転処理を行い、第3のオブジェクト境界確率系列を得るステップと、
前記第1のオブジェクト境界確率系列と前記第3のオブジェクト境界確率系列を融合し、前記目標境界確率系列を得るステップと、を含むことを特徴とする、項目3に記載の方法。
(項目5)
前記第1のオブジェクト境界確率系列および前記第2のオブジェクト境界確率系列の各々は開始確率系列および終了確率系列を含み、
前記第1のオブジェクト境界確率系列と前記第2のオブジェクト境界確率系列との融合処理を行い、目標境界確率系列を得る前記ステップは、
前記第1のオブジェクト境界確率系列と前記第2のオブジェクト境界確率系列のうちの開始確率系列の融合処理を行い、目標開始確率系列を得るステップ、および/または
前記第1のオブジェクト境界確率系列と前記第2のオブジェクト境界確率系列のうちの終了確率系列の融合処理を行い、目標終了確率系列を得るステップを含み、前記目標境界確率系列は前記目標開始確率系列および前記目標終了確率系列のうちの少なくとも一つを含むことを特徴とする、項目3または4に記載の方法。
(項目6)
前記目標境界確率系列に基づき、前記時系列オブジェクト候補集合を生成する前記ステップは、
前記目標境界確率系列に含まれる目標開始確率系列および目標終了確率系列に基づき、前記時系列オブジェクト候補集合を生成するステップ、
または、前記目標境界確率系列に含まれる目標開始確率系列および前記第1のオブジェクト境界確率系列に含まれる終了確率系列に基づき、前記時系列オブジェクト候補集合を生成するステップ、
または、前記目標境界確率系列に含まれる目標開始確率系列および前記第2のオブジェクト境界確率系列に含まれる終了確率系列に基づき、前記時系列オブジェクト候補集合を生成するステップ、
または、前記第1のオブジェクト境界確率系列に含まれる開始確率系列および前記目標境界確率系列に含まれる目標終了確率系列に基づき、前記時系列オブジェクト候補集合を生成するステップ、
または、前記第2のオブジェクト境界確率系列に含まれる開始確率系列および前記目標境界確率系列に含まれる目標終了確率系列に基づき、前記時系列オブジェクト候補集合を生成するステップを含むことを特徴とする、項目3から5のいずれか一項に記載の方法。
(項目7)
前記目標境界確率系列に含まれる目標開始確率系列および目標終了確率系列に基づき、前記時系列オブジェクト候補集合を生成する前記ステップは、
前記目標開始確率系列に含まれる前記複数のセグメントの目標開始確率に基づき、目標開始確率が第1閾値を超えたセグメントおよび/または目標開始確率が少なくとも2つの隣接セグメントより高いセグメントを含む第1セグメント集合を得て、および前記目標終了確率系列に含まれる前記複数のセグメントの目標終了確率に基づき、目標終了確率が第2閾値を超えたセグメントおよび/または目標終了確率が少なくとも2つの隣接セグメントより高いセグメントを含む第2セグメント集合を得るステップと、
前記第1セグメント集合および前記第2セグメント集合に基づき、前記時系列オブジェクト候補集合を生成するステップと、を含むことを特徴とする、項目6に記載の方法。
(項目8)
前記方法はさらに、
前記ビデオストリームのビデオ特徴系列に基づき、第1の時系列オブジェクト候補の長時間候補特徴を得るステップであって、前記長時間候補特徴に対応する時間帯は前記第1の時系列オブジェクト候補に対応する時間帯より長く、前記第1の時系列オブジェクト候補は前記時系列オブジェクト候補集合に含まれるステップと、
前記ビデオストリームのビデオ特徴系列に基づき、前記第1の時系列オブジェクト候補の短時間候補特徴を得るステップであって、前記短時間候補特徴に対応する時間帯は前記第1の時系列オブジェクト候補に対応する時間帯と同じであるステップと、
前記長時間候補特徴および前記短時間候補特徴に基づき、前記第1の時系列オブジェクト候補の評価結果を得るステップと、を含むことを特徴とする、項目1から7のいずれか一項に記載の方法。
(項目9)
前記ビデオストリームのビデオ特徴系列に基づき、前記ビデオストリームの第1の時系列オブジェクト候補の長時間候補特徴を得る前記ステップの前に、さらに、
前記第1特徴系列および前記第2特徴系列のうちの少なくとも一つに基づき、目標動作確率系列を得るステップと、
前記第1特徴系列と前記目標動作確率系列を連接し、前記ビデオ特徴系列を得るステップと、を含むことを特徴とする、項目8に記載の方法。
(項目10)
前記ビデオストリームのビデオ特徴系列に基づき、前記第1の時系列オブジェクト候補の短時間候補特徴を得る前記ステップは、
前記第1の時系列オブジェクト候補に対応する時間帯に基づき、前記ビデオ特徴系列をサンプリングし、前記短時間候補特徴を得るステップを含むことを特徴とする、項目8または9に記載の方法。
(項目11)
前記長時間候補特徴および前記短時間候補特徴に基づき、前記第1の時系列オブジェクト候補の評価結果を得る前記ステップは、
前記長時間候補特徴および前記短時間候補特徴に基づき、前記第1の時系列オブジェクト候補の目標候補特徴を得るステップと、
前記第1の時系列オブジェクト候補の目標候補特徴に基づき、前記第1の時系列オブジェクト候補の評価結果を得るステップと、を含むことを特徴とする、項目8から10のいずれか一項に記載の方法。
(項目12)
前記長時間候補特徴および前記短時間候補特徴に基づき、前記第1の時系列オブジェクト候補の目標候補特徴を得る前記ステップは、
前記長時間候補特徴および前記短時間特徴候補に対して非局所的な注意操作を実行し、中間候補特徴を得るステップと、
前記短時間候補特徴と前記中間候補特徴を連接し、前記目標候補特徴を得るステップと、を含むことを特徴とする、項目11に記載の方法。
(項目13)
前記ビデオストリームのビデオ特徴系列に基づき、第1の時系列オブジェクト候補の長時間候補特徴を得る前記ステップは、
前記ビデオ特徴系列内の、参照時間区間に対応する特徴データに基づき、前記長時間候補特徴を得るステップを含み、前記参照時間区間は前記時系列オブジェクト候補集合内の最初の時系列オブジェクトの開始時間から最後の時系列オブジェクトの終了時間までの区間であることを特徴とする、項目8から10のいずれか一項に記載の方法。
(項目14)
前記方法はさらに、
前記目標候補特徴を候補評価ネットワークに入力して処理し、前記第1の時系列オブジェクト候補の少なくとも2つの品質指標を得るステップであって、前記少なくとも2つの品質指標のうち第1指標は前記第1の時系列オブジェクト候補と真値との共通部分が前記第1の時系列オブジェクト候補の長さを占める割合を特徴付けるためのものであり、前記少なくとも2つの品質指標のうち第2指標は前記第1の時系列オブジェクト候補と前記真値との共通部分が前記真値の長さを占める割合を特徴付けるためのものであるステップと、
前記少なくとも2つの品質指標に基づき、前記評価結果を得るステップと、を含むことを特徴とする、項目8から13のいずれか一項に記載の方法。
(項目15)
候補生成ネットワークおよび候補評価ネットワークを含む時系列候補生成ネットワークに適用され、
前記時系列候補生成ネットワークの訓練プロセスは、
訓練サンプルを前記時系列候補生成ネットワークに入力して処理し、前記候補生成ネットワークから出力されるサンプル時系列候補集合および前記候補評価ネットワークから出力される前記サンプル時系列候補集合に含まれるサンプル時系列候補の評価結果を得るステップと、
前記訓練サンプルのサンプル時系列候補集合および前記サンプル時系列候補集合に含まれるサンプル時系列候補の評価結果と前記訓練サンプルのラベリング情報とのそれぞれの差異に基づき、ネットワーク損失を得るステップと、
前記ネットワーク損失に基づき、前記時系列候補生成ネットワークのネットワークパラメータを調整するステップと、を含むことを特徴とする、項目1から14のいずれか一項に記載の方法。
(項目16)
ビデオストリームのビデオ特徴系列に基づき、前記ビデオストリームの第1の時系列オブジェクト候補の長時間候補特徴を得るステップであって、前記ビデオ特徴系列は前記ビデオストリームに含まれる複数のセグメントにおける各々のセグメントの特徴データを含み、前記長時間候補特徴に対応する時間帯は前記第1の時系列オブジェクト候補に対応する時間帯より長いステップと、
前記ビデオストリームのビデオ特徴系列に基づき、前記第1の時系列オブジェクト候補の短時間候補特徴を得るステップであって、前記短時間候補特徴に対応する時間帯は前記第1の時系列オブジェクト候補に対応する時間帯と同じであるステップと、
前記長時間候補特徴および前記短時間候補特徴に基づき、前記第1の時系列オブジェクト候補の評価結果を得るステップと、を含むことを特徴とする、候補評価方法。
(項目17)
ビデオストリームのビデオ特徴系列に基づき、前記ビデオストリームの第1の時系列オブジェクト候補の長時間候補特徴を得る前記ステップの前に、さらに、
第1特徴系列および第2特徴系列のうちの少なくとも一つに基づき、目標動作確率系列を得るステップであって、前記第1特徴系列も前記第2特徴系列も前記ビデオストリームの複数のセグメントにおける各々のセグメントの特徴データを含み、かつ前記第2特徴系列は前記第1特徴系列に含まれる特徴データの並び順と反対になるステップと、
前記第1特徴系列と前記目標動作確率系列を連接し、前記ビデオ特徴系列を得るステップと、を含むことを特徴とする、項目16に記載の方法。
(項目18)
前記ビデオストリームのビデオ特徴系列に基づき、前記第1の時系列オブジェクト候補の短時間候補特徴を得る前記ステップは、
前記第1の時系列オブジェクト候補に対応する時間帯に基づき、前記ビデオ特徴系列をサンプリングし、前記短時間候補特徴を得るステップを含むことを特徴とする、項目16または17に記載の方法。
(項目19)
前記長時間候補特徴および前記短時間候補特徴に基づき、前記第1の時系列オブジェクト候補の評価結果を得る前記ステップは、
前記長時間候補特徴および前記短時間候補特徴に基づき、前記第1の時系列オブジェクト候補の目標候補特徴を得るステップと、
前記第1の時系列オブジェクト候補の目標候補特徴に基づき、前記第1の時系列オブジェクト候補の評価結果を得るステップと、を含むことを特徴とする、項目16から18のいずれか一項に記載の方法。
(項目20)
前記長時間候補特徴および前記短時間候補特徴に基づき、前記第1の時系列オブジェクト候補の目標候補特徴を得る前記ステップは、
前記長時間候補特徴および前記短時間特徴候補に対して非局所的な注意操作を実行し、中間候補特徴を得るステップと、
前記短時間候補特徴と前記中間候補特徴を連接し、前記目標候補特徴を得るステップと、を含むことを特徴とする、項目19に記載の方法。
(項目21)
前記ビデオストリームのビデオ特徴系列に基づき、第1の時系列オブジェクト候補の長時間候補特徴を得る前記ステップは、
前記ビデオ特徴系列内の、参照時間区間に対応する特徴データに基づき、前記長時間候補特徴を得るステップを含み、前記参照時間区間は前記ビデオストリームの時系列オブジェクト候補集合内の最初の時系列オブジェクトの開始時間から最後の時系列オブジェクトの終了時間までの区間であり、前記時系列オブジェクト候補集合は前記第1の時系列オブジェクト候補を含むことを特徴とする、項目16から20のいずれか一項に記載の方法。
(項目22)
前記第1の時系列オブジェクト候補の目標候補特徴に基づき、前記第1の時系列オブジェクト候補の評価結果を得る前記ステップは、
前記目標候補特徴を候補評価ネットワークに入力して処理し、前記第1の時系列オブジェクト候補の少なくとも2つの品質指標を得るステップであって、前記少なくとも2つの品質指標のうち第1指標は前記第1の時系列オブジェクト候補と真値との共通部分が前記第1の時系列オブジェクト候補の長さを占める割合を特徴付けるためのものであり、前記少なくとも2つの品質指標のうち第2指標は前記第1の時系列オブジェクト候補と前記真値との共通部分が前記真値の長さを占める割合を特徴付けるためのものであるステップと、
前記少なくとも2つの品質指標に基づき、前記評価結果を得るステップと、を含むことを特徴とする、項目19から21のいずれか一項に記載の方法。
(項目23)
ビデオストリームの複数のセグメントにおける各々のセグメントの特徴データを含むビデオストリームの第1特徴系列に基づき、前記ビデオストリームの目標動作確率系列を得るステップと、
前記第1特徴系列と前記目標動作確率系列を連接し、ビデオ特徴系列を得るステップと、
前記ビデオ特徴系列に基づき、前記ビデオストリームの第1の時系列オブジェクト候補の評価結果を得るステップと、を含むことを特徴とする、候補評価方法。
(項目24)
ビデオストリームの第1特徴系列に基づき、前記ビデオストリームの目標動作確率系列を得る前記ステップは、
前記第1特徴系列に基づき、第1動作確率系列を得るステップと、
前記ビデオストリームの第2特徴系列に基づき、第2動作確率系列を得るステップであって、前記第2特徴系列及び前記第1特徴系列に含まれる特徴データは同じであり、かつ並び順が反対になるステップと、
前記第1動作確率系列と前記第2動作確率系列との融合処理を行い、前記目標動作確率系列を得るステップと、を含むことを特徴とする、項目23に記載の方法。
(項目25)
前記第1動作確率系列と前記第2動作確率系列との融合処理を行い、前記目標動作確率系列を得る前記ステップは、
前記第2動作確率系列に対して時系列逆転処理を行い、第3動作確率系列を得るステップと、
前記第1動作確率系列と前記第3動作確率系列を融合し、前記目標動作確率系列を得るステップと、を含むことを特徴とする、項目24に記載の方法。
(項目26)
前記ビデオ特徴系列に基づき、前記ビデオストリームの第1の時系列オブジェクト候補の評価結果を得る前記ステップは、
前記第1の時系列オブジェクト候補に対応する時間帯に基づき、前記ビデオ特徴系列をサンプリングし、目標候補特徴を得るステップと、
前記目標候補特徴に基づき、前記第1の時系列オブジェクト候補の評価結果を得るステップと、を含むことを特徴とする、項目23から25のいずれか一項に記載の方法。
(項目27)
前記目標候補特徴に基づき、前記第1の時系列オブジェクト候補の評価結果を得る前記ステップは、
前記目標候補特徴を候補評価ネットワークに入力して処理し、前記第1の時系列オブジェクト候補の少なくとも2つの品質指標を得るステップであって、前記少なくとも2つの品質指標のうち第1指標は前記第1の時系列オブジェクト候補と真値との共通部分が前記第1の時系列オブジェクト候補の長さを占める割合を特徴付けるためのものであり、前記少なくとも2つの品質指標のうち第2指標は前記第1の時系列オブジェクト候補と前記真値との共通部分が前記真値の長さを占める割合を特徴付けるためのものであるステップと、
前記少なくとも2つの品質指標に基づき、前記評価結果を得るステップと、を含むことを特徴とする、項目26に記載の方法。
(項目28)
前記ビデオ特徴系列に基づき、前記ビデオストリームの第1の時系列オブジェクト候補の評価結果を得る前記ステップの前に、さらに、
前記第1特徴系列に基づき、前記複数のセグメントがオブジェクト境界に属する確率を含む第1のオブジェクト境界確率系列を得るステップと、
前記ビデオストリームの第2特徴系列に基づき、第2のオブジェクト境界確率系列を得るステップと、
前記第1のオブジェクト境界確率系列および前記第2のオブジェクト境界確率系列に基づき、前記第1の時系列オブジェクト候補を生成するステップと、を含むことを特徴とする、項目24から27のいずれか一項に記載の方法。
(項目29)
前記第1のオブジェクト境界確率系列および前記第2のオブジェクト境界確率系列に基づき、前記第1の時系列オブジェクト候補を生成する前記ステップは、
前記第1のオブジェクト境界確率系列と前記第2のオブジェクト境界確率系列との融合処理を行い、目標境界確率系列を得るステップと、
前記目標境界確率系列に基づき、前記第1の時系列オブジェクト候補を生成するステップと、を含むことを特徴とする、項目28に記載の方法。
(項目30)
前記第1のオブジェクト境界確率系列と前記第2のオブジェクト境界確率系列との融合処理を行い、目標境界確率系列を得る前記ステップは、
前記第2のオブジェクト境界確率系列に対して時系列逆転処理を行い、第3のオブジェクト境界確率系列を得るステップと、
前記第1のオブジェクト境界確率系列と前記第3のオブジェクト境界確率系列を融合し、前記目標境界確率系列を得るステップと、を含むことを特徴とする、項目29に記載の方法。
(項目31)
ビデオストリームの第1特徴系列に基づき、第1動作確率系列を得るステップであって、前記第1特徴系列は前記ビデオストリームの複数のセグメントにおける各々のセグメントの特徴データを含むステップと、
前記ビデオストリームの第2特徴系列に基づき、第2動作確率系列を得るステップであって、前記第2特徴系列及び前記第1特徴系列に含まれる特徴データは同じであり、かつ並び順が反対になるステップと
前記第1動作確率系列および前記第2動作確率系列に基づき、前記ビデオストリームの目標動作確率系列を得るステップと、
前記ビデオストリームの目標動作確率系列に基づき、前記ビデオストリームの第1の時系列オブジェクト候補の評価結果を得るステップと、を含むことを特徴とする、候補評価方法。
(項目32)
前記第1動作確率系列および前記第2動作確率系列に基づき、前記ビデオストリームの目標動作確率系列を得る前記ステップは、
前記第1動作確率系列と前記第2動作確率系列との融合処理を行い、前記目標動作確率系列を得るステップを含むことを特徴とする、項目31に記載の方法。
(項目33)
前記第1動作確率系列と前記第2動作確率系列との融合処理を行い、前記目標動作確率系列を得る前記ステップは、
前記第2動作確率系列の時系列を逆転させ、第3動作確率系列を得るステップと、
前記第1動作確率系列と前記第3動作確率系列を融合し、前記目標動作確率系列を得るステップと、を含むことを特徴とする、項目32に記載の方法。
(項目34)
前記ビデオストリームの目標動作確率系列に基づき、前記ビデオストリームの第1の時系列オブジェクト候補の評価結果を得る前記ステップは、
前記目標動作確率系列に基づき、前記第1の時系列オブジェクト候補の長時間候補特徴を得るステップであって、前記長時間候補特徴に対応する時間帯は前記第1の時系列オブジェクト候補に対応する時間帯より長いステップと、
前記目標動作確率系列に基づき、前記第1の時系列オブジェクト候補の短時間候補特徴を得るステップであって、前記短時間候補特徴に対応する時間帯は前記第1の時系列オブジェクト候補に対応する時間帯と同じであるステップステップと、
前記長時間候補特徴および前記短時間候補特徴に基づき、前記第1の時系列オブジェクト候補の評価結果を得るステップと、を含むことを特徴とする、項目31から33のいずれか一項に記載の方法。
(項目35)
前記目標動作確率系列に基づき、前記第1の時系列オブジェクト候補の長時間候補特徴を得る前記ステップは、
前記目標動作確率系列をサンプリングし、前記長時間候補特徴を得るステップを含むことを特徴とする、項目34に記載の方法。
(項目36)
前記目標動作確率系列に基づき、前記第1の時系列オブジェクト候補の短時間候補特徴を得る前記ステップは、
前記第1の時系列オブジェクト候補に対応する時間帯に基づき、前記目標動作確率系列をサンプリングし、前記短時間候補特徴を得るステップを含むことを特徴とする、項目34に記載の方法。
(項目37)
前記長時間候補特徴および前記短時間候補特徴に基づき、前記第1の時系列オブジェクト候補の評価結果を得る前記ステップは、
前記長時間候補特徴および前記短時間候補特徴に基づき、前記第1の時系列オブジェクト候補の目標候補特徴を得るステップと、
前記第1の時系列オブジェクト候補の目標候補特徴に基づき、前記第1の時系列オブジェクト候補の評価結果を得るステップと、を含むことを特徴とする、項目34から36のいずれか一項に記載の方法。
(項目38)
前記長時間候補特徴および前記短時間候補特徴に基づき、前記第1の時系列オブジェクト候補の目標候補特徴を得る前記ステップは、
前記長時間候補特徴および前記短時間特徴候補に対して非局所的な注意操作を実行し、中間候補特徴を得るステップと、
前記短時間候補特徴と前記中間候補特徴を連接し、前記目標候補特徴を得るステップと、を含むことを特徴とする、項目37に記載の方法。
(項目39)
ビデオストリームの第1特徴系列を取得するための取得ユニットであって、前記第1特徴系列は前記ビデオストリームの複数のセグメントにおける各々のセグメントの特徴データを含む取得ユニットと、
前記第1特徴系列に基づき、前記複数のセグメントがオブジェクト境界に属する確率を含む第1のオブジェクト境界確率系列を得るステップと、前記ビデオストリームの第2特徴系列に基づき、第2のオブジェクト境界確率系列を得るステップであって、前記第2特徴系列及び前記第1特徴系列に含まれる特徴データは同じであり、かつ並び順が反対になるステップと、を実行するための処理ユニットと、
前記第1のオブジェクト境界確率系列および前記第2のオブジェクト境界確率系列に基づき、時系列オブジェクト候補集合を生成するための生成ユニットと、を含むことを特徴とする、画像処理装置。
(項目40)
さらに、
前記第1特徴系列に対して時系列逆転処理を行い、前記第2特徴系列を得るための時系列逆転ユニットを含むことを特徴とする、項目39に記載の装置。
(項目41)
前記生成ユニットは、具体的に、前記第1のオブジェクト境界確率系列と前記第2のオブジェクト境界確率系列との融合処理を行い、目標境界確率系列を得るステップと、前記目標境界確率系列に基づき、前記時系列オブジェクト候補集合を生成するステップと、を実行するために用いられることを特徴とする、項目39または40に記載の装置。
(項目42)
前記生成ユニットは、具体的に、前記第2のオブジェクト境界確率系列に対して時系列逆転処理を行い、第3のオブジェクト境界確率系列を得るステップと、前記第1のオブジェクト境界確率系列と前記第3のオブジェクト境界確率系列を融合し、前記目標境界確率系列を得るステップと、を実行するために用いられることを特徴とする、項目41に記載の装置。
(項目43)
前記第1のオブジェクト境界確率系列および前記第2のオブジェクト境界確率系列の各々は開始確率系列および終了確率系列を含み、
前記生成ユニットは、具体的に、前記第1のオブジェクト境界確率系列と前記第2のオブジェクト境界確率系列のうちの開始確率系列の融合処理を行い、目標開始確率系列を得るために用いられ、および/または
前記生成ユニットは、具体的に、前記第1のオブジェクト境界確率系列と前記第2のオブジェクト境界確率系列のうちの終了確率系列の融合処理を行い、目標終了確率系列を得るために用いられ、前記目標境界確率系列は前記目標開始確率系列および前記目標終了確率系列のうちの少なくとも一つを含むことを特徴とする、項目41または42に記載の装置。
(項目44)
前記生成ユニットは、具体的に、前記目標境界確率系列に含まれる目標開始確率系列および目標終了確率系列に基づき、前記時系列オブジェクト候補集合を生成するために用いられ、
または、前記生成ユニットは、具体的に、前記目標境界確率系列に含まれる目標開始確率系列および前記第1のオブジェクト境界確率系列に含まれる終了確率系列に基づき、前記時系列オブジェクト候補集合を生成するために用いられ、
または、前記生成ユニットは、具体的に、前記目標境界確率系列に含まれる目標開始確率系列および前記第2のオブジェクト境界確率系列に含まれる終了確率系列に基づき、前記時系列オブジェクト候補集合を生成するために用いられ、
または、前記生成ユニットは、具体的に、前記第1のオブジェクト境界確率系列に含まれる開始確率系列および前記目標境界確率系列に含まれる目標終了確率系列に基づき、前記時系列オブジェクト候補集合を生成するために用いられ、
または、前記生成ユニットは、具体的に、前記第2のオブジェクト境界確率系列に含まれる開始確率系列および前記目標境界確率系列に含まれる目標終了確率系列に基づき、前記時系列オブジェクト候補集合を生成するために用いられることを特徴とする、項目41から43のいずれか一項に記載の装置。
(項目45)
前記生成ユニットは、具体的に、前記目標開始確率系列に含まれる前記複数のセグメントの目標開始確率に基づき、目標開始確率が第1閾値を超えたセグメントおよび/または目標開始確率が少なくとも2つの隣接セグメントより高いセグメントを含む第1セグメント集合を得て、および前記目標終了確率系列に含まれる前記複数のセグメントの目標終了確率に基づき、目標終了確率が第2閾値を超えたセグメントおよび/または目標終了確率が少なくとも2つの隣接セグメントより高いセグメントを含む第2セグメント集合を得るステップと、
前記第1セグメント集合および前記第2セグメント集合に基づき、前記時系列オブジェクト候補集合を生成するステップと、を実行するために用いられることを特徴とする、項目44に記載の装置。
(項目46)
さらに、
前記ビデオストリームのビデオ特徴系列に基づき、第1の時系列オブジェクト候補の長時間候補特徴を得るステップであって、前記長時間候補特徴に対応する時間帯は前記第1の時系列オブジェクト候補に対応する時間帯より長く、前記第1の時系列オブジェクト候補は前記時系列オブジェクト候補集合に含まれるステップと、前記ビデオストリームのビデオ特徴系列に基づき、前記第1の時系列オブジェクト候補の短時間候補特徴を得るステップであって、前記短時間候補特徴に対応する時間帯は前記第1の時系列オブジェクト候補に対応する時間帯と同じであるステップと、を実行するための特徴特定ユニットと、
前記長時間候補特徴および前記短時間候補特徴に基づき、前記第1の時系列オブジェクト候補の評価結果を得るための評価ユニットと、を含むことを特徴とする、項目39から45のいずれか一項に記載の装置。
(項目47)
前記特徴特定ユニットはさらに、前記第1特徴系列および前記第2特徴系列のうちの少なくとも一つに基づき、目標動作確率系列を得るステップと、前記第1特徴系列と前記目標動作確率系列を連接し、前記ビデオ特徴系列を得るステップと、を実行するために用いられることを特徴とする、項目46に記載の装置。
(項目48)
前記特徴特定ユニットは、具体的に、前記第1の時系列オブジェクト候補に対応する時間帯に基づき、前記ビデオ特徴系列をサンプリングし、前記短時間候補特徴を得るために用いられることを特徴とする、項目46または47に記載の装置。
(項目49)
前記特徴特定ユニットは、具体的に、前記長時間候補特徴および前記短時間候補特徴に基づき、前記第1の時系列オブジェクト候補の目標候補特徴を得るために用いられ、
前記評価ユニットは、具体的に、前記第1の時系列オブジェクト候補の目標候補特徴に基づき、前記第1の時系列オブジェクト候補の評価結果を得るために用いられることを特徴とする、項目46から48に記載の装置。
(項目50)
前記特徴特定ユニットは、具体的に、前記長時間候補特徴および前記短時間特徴候補に対して非局所的な注意操作を実行し、中間候補特徴を得るステップと、前記短時間候補特徴と前記中間候補特徴を連接し、前記目標候補特徴を得るステップと、を実行するために用いられることを特徴とする、項目49に記載の装置。
(項目51)
前記特徴特定ユニットは、具体的に、前記ビデオ特徴系列内の、参照時間区間に対応する特徴データに基づき、前記長時間候補特徴を得るために用いられ、前記参照時間区間は前記時系列オブジェクト候補集合内の最初の時系列オブジェクトの開始時間から最後の時系列オブジェクトの終了時間までの区間であることを特徴とする、項目46から48のいずれか一項に記載の装置。
(項目52)
前記評価ユニットは、具体的に、前記目標候補特徴を候補評価ネットワークに入力して処理し、前記第1の時系列オブジェクト候補の少なくとも2つの品質指標を得るステップであって、前記少なくとも2つの品質指標のうち第1指標は前記第1の時系列オブジェクト候補と真値との共通部分が前記第1の時系列オブジェクト候補の長さを占める割合を特徴付けるためのものであり、前記少なくとも2つの品質指標のうち第2指標は前記第1の時系列オブジェクト候補と前記真値との共通部分が前記真値の長さを占める割合を特徴付けるためのものであるステップと、前記少なくとも2つの品質指標に基づき、前記評価結果を得るステップと、を実行するために用いられることを特徴とする、項目46から51のいずれか一項に記載の装置。
(項目53)
実行する画像処理方法は、候補生成ネットワークおよび候補評価ネットワークを含む時系列候補生成ネットワークに適用され、前記処理ユニットは前記候補生成ネットワークの機能を実行するためのものであり、前記評価ユニットは前記候補評価ネットワークの機能を実行するためのものであり、
前記時系列候補生成ネットワークの訓練プロセスは、
訓練サンプルを前記時系列候補生成ネットワークに入力して処理し、前記候補生成ネットワークから出力されるサンプル時系列候補集合および前記候補評価ネットワークから出力される前記サンプル時系列候補集合に含まれるサンプル時系列候補の評価結果を得るステップと、
前記訓練サンプルのサンプル時系列候補集合および前記サンプル時系列候補集合に含まれるサンプル時系列候補の評価結果と前記訓練サンプルのラベリング情報とのそれぞれの差異に基づき、ネットワーク損失を得るステップと、
前記ネットワーク損失に基づき、前記時系列候補生成ネットワークのネットワークパラメータを調整するステップと、を含むことを特徴とする、項目29から52のいずれか一項に記載の装置。
(項目54)
ビデオストリームのビデオ特徴系列に基づき、第1の時系列オブジェクト候補の長時間候補特徴を得るステップであって、前記ビデオ特徴系列は前記ビデオストリームに含まれる複数のセグメントにおける各々のセグメントの特徴データ、および前記ビデオストリームに基づいて得られた動作確率系列を含み、または、前記ビデオ特徴系列は前記ビデオストリームに基づいて得られた動作確率系列であり、前記長時間候補特徴に対応する時間帯は前記第1の時系列オブジェクト候補に対応する時間帯より長く、前記第1の時系列オブジェクト候補は前記ビデオストリームに基づいて得られた時系列オブジェクト候補集合に含まれるステップと、前記ビデオストリームのビデオ特徴系列に基づき、前記第1の時系列オブジェクト候補の短時間候補特徴を得るステップであって、前記短時間候補特徴に対応する時間帯は前記第1の時系列オブジェクト候補に対応する時間帯と同じであるステップと、を実行するための特徴特定ユニットと、
前記長時間候補特徴および前記短時間候補特徴に基づき、前記第1の時系列オブジェクト候補の評価結果を得るための評価ユニットと、を含むことを特徴とする、候補評価装置。
(項目55)
さらに、
第1特徴系列および第2特徴系列のうちの少なくとも一つに基づき、目標動作確率系列を得るための処理ユニットであって、前記第1特徴系列も前記第2特徴系列も前記ビデオストリームの複数のセグメントにおける各々のセグメントの特徴データを含み、かつ前記第2特徴系列は前記第1特徴系列に含まれる特徴データと同じでありかつ並び順が反対になる処理ユニットと、
前記第1特徴系列と前記目標動作確率系列を連接し、前記ビデオ特徴系列を得るための連接ユニットと、を含むことを特徴とする、項目54に記載の装置。
(項目56)
前記特徴特定ユニットは、具体的に、前記第1の時系列オブジェクト候補に対応する時間帯に基づき、前記ビデオ特徴系列をサンプリングし、前記短時間候補特徴を得るために用いられることを特徴とする、項目54または55に記載の装置。
(項目57)
前記特徴特定ユニットは、具体的に、前記長時間候補特徴および前記短時間候補特徴に基づき、前記第1の時系列オブジェクト候補の目標候補特徴を得るために用いられ、
前記評価ユニットは、具体的に、前記第1の時系列オブジェクト候補の目標候補特徴に基づき、前記第1の時系列オブジェクト候補の評価結果を得るために用いられることを特徴とする、項目54から56のいずれか一項に記載の装置。
(項目58)
前記特徴特定ユニットは、具体的に、前記長時間候補特徴および前記短時間特徴候補に対して非局所的な注意操作を実行し、中間候補特徴を得るステップと、前記短時間候補特徴と前記中間候補特徴を連接し、前記目標候補特徴を得るステップと、を実行するために用いられることを特徴とする、項目57に記載の装置。
(項目59)
前記特徴特定ユニットは、具体的に、前記ビデオ特徴系列内の、参照時間区間に対応する特徴データに基づき、前記長時間候補特徴を得るために用いられ、前記参照時間区間は前記時系列オブジェクト候補集合内の最初の時系列オブジェクトの開始時間から最後の時系列オブジェクトの終了時間までの区間であることを特徴とする、項目54から58のいずれか一項に記載の装置。
(項目60)
前記評価ユニットは、具体的に、前記目標候補特徴を候補評価ネットワークに入力して処理し、前記第1の時系列オブジェクト候補の少なくとも2つの品質指標を得るステップであって、前記少なくとも2つの品質指標のうち第1指標は前記第1の時系列オブジェクト候補と真値との共通部分が前記第1の時系列オブジェクト候補の長さを占める割合を特徴付けるためのものであり、前記少なくとも2つの品質指標のうち第2指標は前記第1の時系列オブジェクト候補と前記真値との共通部分が前記真値の長さを占める割合を特徴付けるためのものであるステップと、前記少なくとも2つの品質指標に基づき、前記評価結果を得るステップと、を実行するために用いられることを特徴とする、項目57から59のいずれか一項に記載の装置。
(項目61)
ビデオストリームの第1特徴系列に基づき、前記ビデオストリームの目標動作確率系列を得るための処理ユニットであって、前記第1特徴系列は前記ビデオストリームの複数のセグメントにおける各々のセグメントの特徴データを含む処理ユニットと、
前記第1特徴系列と前記目標動作確率系列を連接し、ビデオ特徴系列を得るための連接ユニットと、
前記ビデオ特徴系列に基づき、前記ビデオストリームの第1の時系列オブジェクト候補の評価結果を得るための評価ユニットと、を含むことを特徴とする、候補評価装置。
(項目62)
前記処理ユニットは、具体的に、前記第1特徴系列に基づき、第1動作確率系列を得るステップと、
前記ビデオストリームの第2特徴系列に基づき、第2動作確率系列を得るステップであって、前記第2特徴系列及び前記第1特徴系列に含まれる特徴データは同じであり、かつ並び順が反対になるステップと、
前記第1動作確率系列と前記第2動作確率系列との融合処理を行い、前記目標動作確率系列を得るステップと、を実行するために用いられることを特徴とする、項目61に記載の装置。
(項目63)
前記処理ユニットは、具体的に、前記第2動作確率系列に対して時系列逆転処理を行い、第3動作確率系列を得るステップと、
前記第1動作確率系列と前記第3動作確率系列を融合し、前記目標動作確率系列を得るステップと、を実行するために用いられることを特徴とする、項目62に記載の装置。
(項目64)
前記評価ユニットは、具体的に、前記第1の時系列オブジェクト候補に対応する時間帯に基づき、前記ビデオ特徴系列をサンプリングし、目標候補特徴を得るステップと、
前記目標候補特徴に基づき、前記第1の時系列オブジェクト候補の評価結果を得るステップと、を実行するために用いられることを特徴とする、項目61から63のいずれか一項に記載の装置。
(項目65)
前記評価ユニットは、具体的に、前記目標候補特徴を候補評価ネットワークに入力して処理し、前記第1の時系列オブジェクト候補の少なくとも2つの品質指標を得るステップであって、前記少なくとも2つの品質指標のうち第1指標は前記第1の時系列オブジェクト候補と真値との共通部分が前記第1の時系列オブジェクト候補の長さを占める割合を特徴付けるためのものであり、前記少なくとも2つの品質指標のうち第2指標は前記第1の時系列オブジェクト候補と前記真値との共通部分が前記真値の長さを占める割合を特徴付けるためのものであるステップと、
前記少なくとも2つの品質指標に基づき、前記評価結果を得るステップと、実行するために用いられることを特徴とする、項目64に記載の装置。
(項目66)
前記処理ユニットはさらに、前記第1特徴系列に基づき、前記複数のセグメントがオブジェクト境界に属する確率を含む第1のオブジェクト境界確率系列を得るステップと、
前記ビデオストリームの第2特徴系列に基づき、第2のオブジェクト境界確率系列を得るステップと、
前記第1のオブジェクト境界確率系列および前記第2のオブジェクト境界確率系列に基づき、前記第1の時系列オブジェクト候補を生成するステップと、を実行するために用いられることを特徴とする、項目62から65のいずれか一項に記載の装置。
(項目67)
前記処理ユニットは、具体的に、前記第1のオブジェクト境界確率系列と前記第2のオブジェクト境界確率系列との融合処理を行い、目標境界確率系列を得るステップと、
前記目標境界確率系列に基づき、前記第1の時系列オブジェクト候補を生成するステップと、を実行するために用いられることを特徴とする、項目66に記載の装置。
(項目68)
前記処理ユニットは、具体的に、前記第2のオブジェクト境界確率系列に対して時系列逆転処理を行い、第3のオブジェクト境界確率系列を得るステップと、
前記第1のオブジェクト境界確率系列と前記第3のオブジェクト境界確率系列を融合し、前記目標境界確率系列を得るステップと、を実行するために用いられることを特徴とする、項目66に記載の装置。
(項目69)
ビデオストリームの第1特徴系列に基づき、第1動作確率系列を得るステップであって、前記第1特徴系列は前記ビデオストリームの複数のセグメントにおける各々のセグメントの特徴データを含むステップと、前記ビデオストリームの第2特徴系列に基づき、第2動作確率系列を得るステップであって、前記第2特徴系列及び前記第1特徴系列に含まれる特徴データは同じであり、かつ並び順が反対になるステップステップと、前記第1動作確率系列および前記第2動作確率系列に基づき、前記ビデオストリームの目標動作確率系列を得るステップと、を実行するための処理ユニットと、
前記ビデオストリームの目標動作確率系列に基づき、前記ビデオストリームの第1の時系列オブジェクト候補の評価結果を得るための評価ユニットと、を含むことを特徴とする、候補評価装置。
(項目70)
前記処理ユニットは、具体的に、前記第1動作確率系列と前記第2動作確率系列との融合処理を行い、前記目標動作確率系列を得るために用いられることを特徴とする、項目69に記載の装置。
(項目71)
前記処理ユニットは、具体的に、前記第2動作確率系列の時系列を逆転させ、第3動作確率系列を得るステップと、
前記第1動作確率系列と前記第3動作確率系列を融合し、前記目標動作確率系列を得るステップと、を実行するために用いられることを特徴とする、項目70に記載の装置。
(項目72)
前記評価ユニットは、具体的に、前記目標動作確率系列に基づき、前記第1の時系列オブジェクト候補の長時間候補特徴を得るステップであって、前記長時間候補特徴に対応する時間帯は前記第1の時系列オブジェクト候補に対応する時間帯より長いステップと、
前記目標動作確率系列に基づき、前記第1の時系列オブジェクト候補の短時間候補特徴を得るステップであって、前記短時間候補特徴に対応する時間帯は前記第1の時系列オブジェクト候補に対応する時間帯と同じであるステップと、
前記長時間候補特徴および前記短時間候補特徴に基づき、前記第1の時系列オブジェクト候補の評価結果を得るステップと、を実行するために用いられることを特徴とする、項目69から71のいずれか一項に記載の装置。
(項目73)
前記評価ユニットは、具体的に、前記目標動作確率系列をサンプリングし、前記長時間候補特徴を得るために用いられることを特徴とする、項目72に記載の装置。
(項目74)
前記評価ユニットは、具体的に、前記第1の時系列オブジェクト候補に対応する時間帯に基づき、前記目標動作確率系列をサンプリングし、前記短時間候補特徴を得るために用いられることを特徴とする、項目72に記載の装置。
(項目75)
前記評価ユニットは、具体的に、前記長時間候補特徴および前記短時間候補特徴に基づき、前記第1の時系列オブジェクト候補の目標候補特徴を得るステップと、
前記第1の時系列オブジェクト候補の目標候補特徴に基づき、前記第1の時系列オブジェクト候補の評価結果を得るステップと、を実行するために用いられることを特徴とする、項目72から74のいずれか一項に記載の装置。
(項目76)
前記評価ユニットは、具体的に、前記長時間候補特徴および前記短時間特徴候補に対して非局所的な注意操作を実行し、中間候補特徴を得るステップと、
前記短時間候補特徴と前記中間候補特徴を連接し、前記目標候補特徴を得るステップと、を実行するために用いられることを特徴とする、項目75に記載の装置。
(項目77)
プロセッサおよびデータインタフェースを含み、前記プロセッサは前記データインタフェースを介してメモリに記憶された命令を読み出して、項目1から38のいずれか一項に記載の方法を実行することを特徴とする、チップ。
(項目78)
プログラムを記憶するためのメモリと、前記メモリに記憶された前記プログラムを実行するためのプロセッサとを含み、前記プログラムが実行された場合、前記プロセッサは項目1から38のいずれか一項に記載の方法を実行するために用いられることを特徴とする、電子機器。
(項目79)
プロセッサにより実行される時に前記プロセッサに項目1から38のいずれか一項に記載の方法を実行させるプログラム命令を含むコンピュータプログラムが記憶されていることを特徴とする、コンピュータ可読記憶媒体。
(項目80)
プロセッサにより実行される時に前記プロセッサに項目1から38のいずれか一項に記載の方法を実行させるプログラム命令を含むことを特徴とする、コンピュータプログラム製品。
例を挙げれば、画像処理装置、例えばサーバは、ビデオから抽出された特徴系列を処理して提案候補集合および前記提案候補集合内の各候補の信頼度スコアを得て、そして前記提案候補集合および前記提案候補集合内の各候補の信頼度スコア基づいて時系列動作を特定し、それにより前記ビデオにおけるハイライト場面(例えば戦闘場面)を抽出する。また例を挙げれば、画像処理装置、例えばサーバは、ユーザが視聴したビデオについて時系列動作を検出し、それにより前記ユーザが好むビデオのタイプを予測し、前記ユーザに類似のビデオを推奨する。
画像処理装置は、監視ビデオから抽出された特徴系列を処理して提案候補集合および前記提案候補集合内の各候補の信頼度スコアを得て、そして前記提案候補集合および前記提案候補集合内の各候補の信頼度スコアに基づいて時系列動作を特定し、それにより前記監視ビデオにおける何らかの時系列動作を含む場面を抽出する。例えば、或る交差点の監視ビデオから車両の出入場面を抽出する。また例を挙げれば、複数の監視ビデオについて時系列動作を検出し、それにより前記複数の監視ビデオから何らかの時系列動作、例えば車両が人に衝突した動作を含むビデオを探し出す。
ビデオストリームの第1特徴系列を取得するための取得ユニットであって、前記第1特徴系列は前記ビデオストリームの複数のセグメントにおける各々のセグメントの特徴データを含む取得ユニット901と、
前記第1特徴系列に基づき、前記複数のセグメントがオブジェクト境界に属する確率を含む第1のオブジェクト境界確率系列を得るステップと、
前記ビデオストリームの第2特徴系列に基づき、前記第1特徴系列に含まれる特徴データと同じでありかつ並び順が反対になる第2のオブジェクト境界確率系列を得るステップと、を実行するための処理ユニット902と、
前記第1のオブジェクト境界確率系列および前記第2のオブジェクト境界確率系列に基づき、時系列オブジェクト候補集合を生成するための生成ユニット903と、を含んでもよい。
生成ユニット903は、具体的に、前記第1のオブジェクト境界確率系列と前記第2のオブジェクト境界確率系列のうちの開始確率系列の融合処理を行い、目標開始確率系列を得るために用いられ、および/または
生成ユニット903は、具体的に、前記第1のオブジェクト境界確率系列と前記第2のオブジェクト境界確率系列のうちの終了確率系列の融合処理を行い、目標終了確率系列を得るために用いられ、前記目標境界確率系列は前記目標開始確率系列および前記目標終了確率系列のうちの少なくとも一つを含む。
または、生成ユニット903は、具体的に、前記目標境界確率系列に含まれる目標開始確率系列および前記第1のオブジェクト境界確率系列に含まれる終了確率系列に基づき、前記時系列オブジェクト候補集合を生成するために用いられ、
または、生成ユニット903は、具体的に、前記目標境界確率系列に含まれる目標開始確率系列および前記第2のオブジェクト境界確率系列に含まれる終了確率系列に基づき、前記時系列オブジェクト候補集合を生成するために用いられ、
または、生成ユニット903は、具体的に、前記第1のオブジェクト境界確率系列に含まれる開始確率系列および前記目標境界確率系列に含まれる目標終了確率系列に基づき、前記時系列オブジェクト候補集合を生成するために用いられ、
または、生成ユニット903は、具体的に、前記第2のオブジェクト境界確率系列に含まれる開始確率系列および前記目標境界確率系列に含まれる目標終了確率系列に基づき、前記時系列オブジェクト候補集合を生成するために用いられる。
前記ビデオストリームのビデオ特徴系列に基づき、第1の時系列オブジェクト候補の長時間候補特徴を得るステップであって、前記長時間候補特徴に対応する時間帯は前記第1の時系列オブジェクト候補に対応する時間帯より長く、前記第1の時系列オブジェクト候補は前記時系列オブジェクト候補集合に含まれるステップと、前記ビデオストリームのビデオ特徴系列に基づき、前記第1の時系列オブジェクト候補の短時間候補特徴を得るステップであって、前記短時間候補特徴に対応する時間帯は前記第1の時系列オブジェクト候補に対応する時間帯と同じであるステップと、を実行するための特徴特定ユニット905と、
前記長時間候補特徴および前記短時間候補特徴に基づき、前記第1の時系列オブジェクト候補の評価結果を得るための評価ユニット906と、を含む。
評価ユニット906は、具体的に、前記第1の時系列オブジェクト候補の目標候補特徴に基づき、前記第1の時系列オブジェクト候補の評価結果を得るために用いられる。
前記時系列候補生成ネットワークの訓練プロセスは、
訓練サンプルを前記時系列候補生成ネットワークに入力して処理し、前記候補生成ネットワークから出力されるサンプル時系列候補集合および前記候補評価ネットワークから出力される前記サンプル時系列候補集合に含まれるサンプル時系列候補の評価結果を得るステップと、
前記訓練サンプルのサンプル時系列候補集合および前記サンプル時系列候補集合に含まれるサンプル時系列候補の評価結果と前記訓練サンプルのラベリング情報とのそれぞれの差異に基づき、ネットワーク損失を得るステップと、
前記ネットワーク損失に基づき、前記時系列候補生成ネットワークのネットワークパラメータを調整するステップと、を含む。
ビデオストリームのビデオ特徴系列に基づき、第1の時系列オブジェクト候補の長時間候補特徴を得るステップであって、前記ビデオ特徴系列は前記ビデオストリームに含まれる複数のセグメントにおける各々のセグメントの特徴データ、および前記ビデオストリームに基づいて得られた動作確率系列を含み、または、前記ビデオ特徴系列は前記ビデオストリームに基づいて得られた動作確率系列であり、前記長時間候補特徴に対応する時間帯は前記第1の時系列オブジェクト候補に対応する時間帯より長く、前記第1の時系列オブジェクト候補は前記ビデオストリームに基づいて得られた時系列オブジェクト候補集合に含まれるステップと、
前記ビデオストリームのビデオ特徴系列に基づき、前記第1の時系列オブジェクト候補の短時間候補特徴を得るステップであって、前記短時間候補特徴に対応する時間帯は前記第1の時系列オブジェクト候補に対応する時間帯と同じであるステップと、を実行するための特徴特定ユニット1001と、
前記長時間候補特徴および前記短時間候補特徴に基づき、前記第1の時系列オブジェクト候補の評価結果を得るための評価ユニット1002と、を含んでもよい。
第1特徴系列および第2特徴系列のうちの少なくとも一つに基づき、目標動作確率系列を得るステップであって、前記第1特徴系列も前記第2特徴系列も前記ビデオストリームの複数のセグメントにおける各々のセグメントの特徴データを含み、かつ前記第2特徴系列は前記第1特徴系列に含まれる特徴データと同じでありかつ並び順が反対になるステップを実行するための処理ユニット1003と、
前記第1特徴系列と前記目標動作確率系列を連接し、前記ビデオ特徴系列を得るための連接ユニット1004と、を含む。
評価ユニット1002は、具体的に、前記第1の時系列オブジェクト候補の目標候補特徴に基づき、前記第1の時系列オブジェクト候補の評価結果を得るために用いられる。
ビデオストリームの第1特徴系列に基づき、前記ビデオストリームの目標動作確率系列を得るための処理ユニットであって、前記第1特徴系列は前記ビデオストリームの複数のセグメントにおける各々のセグメントの特徴データを含む処理ユニット1101と、
前記第1特徴系列と前記目標動作確率系列を連接し、ビデオ特徴系列を得るための連接ユニット1102と、
前記ビデオ特徴系列に基づき、前記ビデオストリームの第1の時系列オブジェクト候補の評価結果を得るための評価ユニット1103と、を含んでもよい。
ビデオストリームの第1特徴系列に基づき、第1動作確率系列を得るステップであって、前記第1特徴系列は前記ビデオストリームの複数のセグメントにおける各々のセグメントの特徴データを含むステップと、
前記ビデオストリームの第2特徴系列に基づき、第2動作確率系列を得るステップであって、前記第2特徴系列及び前記第1特徴系列に含まれる特徴データは同じであり、かつ並び順が反対になるステップと、
前記第1動作確率系列および前記第2動作確率系列に基づき、前記ビデオストリームの目標動作確率系列を得るステップと、を実行するための処理ユニット1201と、
前記ビデオストリームの目標動作確率系列に基づき、前記ビデオストリームの第1の時系列オブジェクト候補の評価結果を得るための評価ユニット1202と、を含んでもよい。
Claims (19)
- 画像を処理する方法であって、
ビデオストリームの第1特徴系列を取得するステップであって、前記第1特徴系列は、前記ビデオストリームの複数のセグメントにおける各々のセグメントの特徴データを含む、ステップと、
前記第1特徴系列に基づき、前記複数のセグメントがオブジェクト境界に属する確率を含む第1のオブジェクト境界確率系列を得るステップと、
前記ビデオストリームの第2特徴系列に基づき、第2のオブジェクト境界確率系列を得るステップであって、前記第2特徴系列および前記第1特徴系列に含まれる特徴データは、同じであり、かつ、並び順が反対である、ステップと、
前記第1のオブジェクト境界確率系列および前記第2のオブジェクト境界確率系列に基づき、時系列オブジェクト候補集合を生成するステップと
を含む、方法。 - 前記方法は、前記ビデオストリームの第2特徴系列に基づき、第2のオブジェクト境界確率系列を得る前記ステップの前に、前記第1特徴系列に対して時系列逆転処理を行い、前記第2特徴系列を得るステップをさらに含む、請求項1に記載の方法。
- 前記第1のオブジェクト境界確率系列および前記第2のオブジェクト境界確率系列に基づき、時系列オブジェクト候補集合を生成する前記ステップは、
前記第1のオブジェクト境界確率系列と前記第2のオブジェクト境界確率系列との融合処理を行い、目標境界確率系列を得るステップと、
前記目標境界確率系列に基づき、前記時系列オブジェクト候補集合を生成するステップと
を含む、請求項1または2に記載の方法。 - 前記方法は、
前記ビデオストリームのビデオ特徴系列に基づき、第1の時系列オブジェクト候補の長時間候補特徴を得るステップであって、前記長時間候補特徴に対応する時間帯は、前記第1の時系列オブジェクト候補に対応する時間帯より長く、前記第1の時系列オブジェクト候補は、前記時系列オブジェクト候補集合に含まれる、ステップと、
前記ビデオストリームのビデオ特徴系列に基づき、前記第1の時系列オブジェクト候補の短時間候補特徴を得るステップであって、前記短時間候補特徴に対応する時間帯は、前記第1の時系列オブジェクト候補に対応する時間帯と同じである、ステップと、
前記長時間候補特徴および前記短時間候補特徴に基づき、前記第1の時系列オブジェクト候補の評価結果を得るステップと
をさらに含む、請求項1から3のいずれか一項に記載の方法。 - 前記方法は、
前記ビデオストリームのビデオ特徴系列に基づき、前記ビデオストリームの第1の時系列オブジェクト候補の長時間候補特徴を得る前記ステップの前に、
前記第1特徴系列および前記第2特徴系列のうちの少なくとも一つに基づき、目標動作確率系列を得るステップと、
前記第1特徴系列と前記目標動作確率系列とを連接し、前記ビデオ特徴系列を得るステップと
をさらに含む、請求項4に記載の方法。 - 前記ビデオストリームのビデオ特徴系列に基づき、前記第1の時系列オブジェクト候補の短時間候補特徴を得る前記ステップは、
前記第1の時系列オブジェクト候補に対応する時間帯に基づき、前記ビデオ特徴系列をサンプリングし、前記短時間候補特徴を得るステップを含む、請求項4または5に記載の方法。 - 前記長時間候補特徴および前記短時間候補特徴に基づき、前記第1の時系列オブジェクト候補の評価結果を得る前記ステップは、
前記長時間候補特徴および前記短時間候補特徴に基づき、前記第1の時系列オブジェクト候補の目標候補特徴を得るステップと、
前記第1の時系列オブジェクト候補の目標候補特徴に基づき、前記第1の時系列オブジェクト候補の評価結果を得るステップと
を含む、請求項4から6のいずれか一項に記載の方法。 - 前記ビデオストリームのビデオ特徴系列に基づき、第1の時系列オブジェクト候補の長時間候補特徴を得る前記ステップは、
前記ビデオ特徴系列内の、参照時間区間に対応する特徴データに基づき、前記長時間候補特徴を得るステップを含み、前記参照時間区間は、前記時系列オブジェクト候補集合内の最初の時系列オブジェクトの開始時間から最後の時系列オブジェクトの終了時間までの区間である、請求項4から7のいずれか一項に記載の方法。 - 前記方法は、
前記目標候補特徴を候補評価ネットワークに入力して処理し、前記第1の時系列オブジェクト候補の少なくとも2つの品質指標を得るステップであって、前記少なくとも2つの品質指標のうち第1指標は、前記第1の時系列オブジェクト候補と真値との共通部分が前記第1の時系列オブジェクト候補の長さを占める割合を特徴付けるためのものであり、前記少なくとも2つの品質指標のうち第2指標は、前記第1の時系列オブジェクト候補と前記真値との共通部分が前記真値の長さを占める割合を特徴付けるためのものである、ステップと、
前記少なくとも2つの品質指標に基づき、前記評価結果を得るステップと
をさらに含む、請求項4から8のいずれか一項に記載の方法。 - 候補を評価する方法であって、前記方法は、
ビデオストリームの複数のセグメントにおける各々のセグメントの特徴データを含むビデオストリームの第1特徴系列に基づき、前記ビデオストリームの目標動作確率系列を得るステップと、
前記第1特徴系列と前記目標動作確率系列とを連接し、ビデオ特徴系列を得るステップと、
前記ビデオ特徴系列に基づき、前記ビデオストリームの第1の時系列オブジェクト候補の評価結果を得るステップと
を含み、
ビデオストリームの第1特徴系列に基づき、前記ビデオストリームの目標動作確率系列を得る前記ステップは、
前記第1特徴系列に基づき、第1動作確率系列を得るステップと、
前記ビデオストリームの第2特徴系列に基づき、第2動作確率系列を得るステップであって、前記第2特徴系列および前記第1特徴系列に含まれる特徴データは、同じであり、かつ、並び順が反対である、ステップと、
前記第1動作確率系列と前記第2動作確率系列との融合処理を行い、前記目標動作確率系列を得るステップと
を含む、方法。 - 前記ビデオ特徴系列に基づき、前記ビデオストリームの第1の時系列オブジェクト候補の評価結果を得る前記ステップは、
前記第1の時系列オブジェクト候補に対応する時間帯に基づき、前記ビデオ特徴系列をサンプリングし、目標候補特徴を得るステップと、
前記目標候補特徴に基づき、前記第1の時系列オブジェクト候補の評価結果を得るステップと
を含む、請求項10に記載の方法。 - 前記方法は、
前記ビデオ特徴系列に基づき、前記ビデオストリームの第1の時系列オブジェクト候補の評価結果を得る前記ステップの前に、
前記第1特徴系列に基づき、前記複数のセグメントがオブジェクト境界に属する確率を含む第1のオブジェクト境界確率系列を得るステップと、
前記ビデオストリームの第2特徴系列に基づき、第2のオブジェクト境界確率系列を得るステップと、
前記第1のオブジェクト境界確率系列および前記第2のオブジェクト境界確率系列に基づき、前記第1の時系列オブジェクト候補を生成するステップと
をさらに含む、請求項10または11に記載の方法。 - 候補を評価する方法であって、
ビデオストリームの第1特徴系列に基づき、第1動作確率系列を得るステップであって、前記第1特徴系列は、前記ビデオストリームの複数のセグメントにおける各々のセグメントの特徴データを含む、ステップと、
前記ビデオストリームの第2特徴系列に基づき、第2動作確率系列を得るステップであって、前記第2特徴系列および前記第1特徴系列に含まれる特徴データは、同じであり、かつ、並び順が反対である、ステップと
前記第1動作確率系列および前記第2動作確率系列に基づき、前記ビデオストリームの目標動作確率系列を得るステップと、
前記ビデオストリームの目標動作確率系列に基づき、前記ビデオストリームの第1の時系列オブジェクト候補の評価結果を得るステップと
を含む、方法。 - 前記第1動作確率系列および前記第2動作確率系列に基づき、前記ビデオストリームの目標動作確率系列を得る前記ステップは、
前記第1動作確率系列と前記第2動作確率系列との融合処理を行い、前記目標動作確率系列を得るステップを含む、請求項13に記載の方法。 - 前記ビデオストリームの目標動作確率系列に基づき、前記ビデオストリームの第1の時系列オブジェクト候補の評価結果を得る前記ステップは、
前記目標動作確率系列に基づき、前記第1の時系列オブジェクト候補の長時間候補特徴を得るステップであって、前記長時間候補特徴に対応する時間帯は、前記第1の時系列オブジェクト候補に対応する時間帯より長い、ステップと、
前記目標動作確率系列に基づき、前記第1の時系列オブジェクト候補の短時間候補特徴を得るステップであって、前記短時間候補特徴に対応する時間帯は、前記第1の時系列オブジェクト候補に対応する時間帯と同じである、ステップと、
前記長時間候補特徴および前記短時間候補特徴に基づき、前記第1の時系列オブジェクト候補の評価結果を得るステップと
を含む、請求項13または14に記載の方法。 - 画像処理装置であって、
ビデオストリームの第1特徴系列を取得するための取得ユニットであって、前記第1特徴系列は、前記ビデオストリームの複数のセグメントにおける各々のセグメントの特徴データを含む、取得ユニットと、
前記第1特徴系列に基づき、前記複数のセグメントがオブジェクト境界に属する確率を含む第1のオブジェクト境界確率系列を得るステップと、前記ビデオストリームの第2特徴系列に基づき、第2のオブジェクト境界確率系列を得るステップとを実行するための処理ユニットであって、前記第2特徴系列および前記第1特徴系列に含まれる特徴データは、同じであり、かつ、並び順が反対である、処理ユニットと、
前記第1のオブジェクト境界確率系列および前記第2のオブジェクト境界確率系列に基づき、時系列オブジェクト候補集合を生成するための生成ユニットと
を含む、画像処理装置。 - 電子機器であって、前記電子機器は、
プログラムを記憶するためのメモリと、
前記メモリに記憶された前記プログラムを実行するためのプロセッサと
を含み、
前記プロセッサは、前記プログラムが実行されると、請求項1から15のいずれか一項に記載の方法を実行するように構成されている、電子機器。 - プログラム命令を含むコンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体であって、
前記プログラム命令は、プロセッサによって実行されると、請求項1から15のいずれか一項に記載の方法を実行することを前記プロセッサに行わせる、コンピュータ読み取り可能な記憶媒体。 - 請求項1から15のいずれか一項に記載の方法を実行することをプロセッサに行わせるコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910552360.5A CN110263733B (zh) | 2019-06-24 | 2019-06-24 | 图像处理方法、提名评估方法及相关装置 |
CN201910552360.5 | 2019-06-24 | ||
PCT/CN2019/111476 WO2020258598A1 (zh) | 2019-06-24 | 2019-10-16 | 图像处理方法、提名评估方法及相关装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021531523A JP2021531523A (ja) | 2021-11-18 |
JP7163397B2 true JP7163397B2 (ja) | 2022-10-31 |
Family
ID=67921137
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020543216A Active JP7163397B2 (ja) | 2019-06-24 | 2019-10-16 | 画像処理方法、候補評価方法および関連装置 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20230094192A1 (ja) |
JP (1) | JP7163397B2 (ja) |
KR (1) | KR20210002355A (ja) |
CN (1) | CN110263733B (ja) |
SG (1) | SG11202009661VA (ja) |
TW (1) | TWI734375B (ja) |
WO (1) | WO2020258598A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110263733B (zh) * | 2019-06-24 | 2021-07-23 | 上海商汤智能科技有限公司 | 图像处理方法、提名评估方法及相关装置 |
CN111327949B (zh) * | 2020-02-28 | 2021-12-21 | 华侨大学 | 一种视频的时序动作检测方法、装置、设备及存储介质 |
CN111368786A (zh) * | 2020-03-16 | 2020-07-03 | 平安科技(深圳)有限公司 | 动作区域提取方法、装置、设备及计算机可读存储介质 |
CN112200103A (zh) * | 2020-04-07 | 2021-01-08 | 北京航空航天大学 | 一种基于图注意力的视频分析***和方法 |
CN112906586B (zh) * | 2021-02-26 | 2024-05-24 | 上海商汤科技开发有限公司 | 时序动作提名生成方法和相关产品 |
CN114627556B (zh) | 2022-03-15 | 2023-04-07 | 北京百度网讯科技有限公司 | 动作检测方法、动作检测装置、电子设备以及存储介质 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8171030B2 (en) * | 2007-06-18 | 2012-05-01 | Zeitera, Llc | Method and apparatus for multi-dimensional content search and video identification |
TWI430664B (zh) * | 2011-04-13 | 2014-03-11 | Chunghwa Telecom Co Ltd | Intelligent Image Monitoring System Object Track Tracking System |
CN103902966B (zh) * | 2012-12-28 | 2018-01-05 | 北京大学 | 基于序列时空立方体特征的视频交互事件分析方法及装置 |
CN104200494B (zh) * | 2014-09-10 | 2017-05-17 | 北京航空航天大学 | 一种基于光流的实时视觉目标跟踪方法 |
US9881380B2 (en) * | 2016-02-16 | 2018-01-30 | Disney Enterprises, Inc. | Methods and systems of performing video object segmentation |
CN108234821B (zh) * | 2017-03-07 | 2020-11-06 | 北京市商汤科技开发有限公司 | 检测视频中的动作的方法、装置和*** |
CN108229280B (zh) * | 2017-04-20 | 2020-11-13 | 北京市商汤科技开发有限公司 | 时域动作检测方法和***、电子设备、计算机存储介质 |
GB2565775A (en) * | 2017-08-21 | 2019-02-27 | Nokia Technologies Oy | A Method, an apparatus and a computer program product for object detection |
CN110472647B (zh) * | 2018-05-10 | 2022-06-24 | 百度在线网络技术(北京)有限公司 | 基于人工智能的辅助面试方法、装置及存储介质 |
CN108898614B (zh) * | 2018-06-05 | 2022-06-21 | 南京大学 | 一种基于层次式时空区域合并的物体轨迹提议方法 |
CN108875610B (zh) * | 2018-06-05 | 2022-04-05 | 北京大学深圳研究生院 | 一种基于边界查找的用于视频中动作时间轴定位的方法 |
US10936630B2 (en) * | 2018-09-13 | 2021-03-02 | Microsoft Technology Licensing, Llc | Inferring topics with entity linking and ontological data |
CN109784269A (zh) * | 2019-01-11 | 2019-05-21 | 中国石油大学(华东) | 一种基于时空联合的人体动作检测和定位方法 |
CN110263733B (zh) * | 2019-06-24 | 2021-07-23 | 上海商汤智能科技有限公司 | 图像处理方法、提名评估方法及相关装置 |
-
2019
- 2019-06-24 CN CN201910552360.5A patent/CN110263733B/zh active Active
- 2019-10-16 WO PCT/CN2019/111476 patent/WO2020258598A1/zh active Application Filing
- 2019-10-16 KR KR1020207023267A patent/KR20210002355A/ko not_active Application Discontinuation
- 2019-10-16 JP JP2020543216A patent/JP7163397B2/ja active Active
- 2019-10-16 US US16/975,213 patent/US20230094192A1/en not_active Abandoned
- 2019-10-16 SG SG11202009661VA patent/SG11202009661VA/en unknown
-
2020
- 2020-02-07 TW TW109103874A patent/TWI734375B/zh active
Non-Patent Citations (1)
Title |
---|
Tianwei Lin 他,BSN: Boundary Sensitive Network For Temporal Action Proposal Generation,[online] arXiv,2018年09月26日,p1-17,https://arxiv.org/pdf/1806.02964.pdf |
Also Published As
Publication number | Publication date |
---|---|
US20230094192A1 (en) | 2023-03-30 |
KR20210002355A (ko) | 2021-01-07 |
TW202101384A (zh) | 2021-01-01 |
CN110263733A (zh) | 2019-09-20 |
SG11202009661VA (en) | 2021-01-28 |
WO2020258598A1 (zh) | 2020-12-30 |
CN110263733B (zh) | 2021-07-23 |
JP2021531523A (ja) | 2021-11-18 |
TWI734375B (zh) | 2021-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7163397B2 (ja) | 画像処理方法、候補評価方法および関連装置 | |
Sindagi et al. | Jhu-crowd++: Large-scale crowd counting dataset and a benchmark method | |
Xu et al. | Deep learning for multiple object tracking: a survey | |
CN107038221B (zh) | 一种基于语义信息引导的视频内容描述方法 | |
Kumar et al. | Eratosthenes sieve based key-frame extraction technique for event summarization in videos | |
CN109101896B (zh) | 一种基于时空融合特征和注意力机制的视频行为识别方法 | |
Zhao et al. | Temporal action detection with structured segment networks | |
CN110347872B (zh) | 视频封面图像提取方法及装置、存储介质及电子设备 | |
CN110309353A (zh) | 视频索引方法及装置 | |
CN109858407B (zh) | 一种基于多种信息流特征和异步融合的视频行为识别方法 | |
CN102165464A (zh) | 用于对视频内容中的人进行自动注释的方法和*** | |
Zhang et al. | Key frame proposal network for efficient pose estimation in videos | |
CN111984820B (zh) | 一种基于双自注意力胶囊网络的视频摘要方法 | |
CN111401149B (zh) | 基于长短期时域建模算法的轻量级视频行为识别方法 | |
Wang et al. | The monkeytyping solution to the youtube-8m video understanding challenge | |
CN111428087B (zh) | 视频截取方法、装置、计算机设备和存储介质 | |
Kim et al. | Efficient action recognition via dynamic knowledge propagation | |
Wang et al. | Fast and accurate action detection in videos with motion-centric attention model | |
CN114245232B (zh) | 一种视频摘要生成方法、装置、存储介质及电子设备 | |
Su et al. | Progressive cross-stream cooperation in spatial and temporal domain for action localization | |
CN115033739A (zh) | 搜索方法、模型训练方法、装置、电子设备和介质 | |
CN112906586B (zh) | 时序动作提名生成方法和相关产品 | |
CN109241315B (zh) | 一种基于深度学习的快速人脸检索方法 | |
CN113010736A (zh) | 一种视频分类方法、装置、电子设备及存储介质 | |
CN115984742A (zh) | 视频选帧模型的训练方法、视频处理方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200812 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200812 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211029 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220420 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220517 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220927 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221019 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7163397 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |