JP2014016895A - Information extraction device, information extraction method, and program - Google Patents

Information extraction device, information extraction method, and program Download PDF

Info

Publication number
JP2014016895A
JP2014016895A JP2012154907A JP2012154907A JP2014016895A JP 2014016895 A JP2014016895 A JP 2014016895A JP 2012154907 A JP2012154907 A JP 2012154907A JP 2012154907 A JP2012154907 A JP 2012154907A JP 2014016895 A JP2014016895 A JP 2014016895A
Authority
JP
Japan
Prior art keywords
density distribution
sampling
image
setting
reference section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012154907A
Other languages
Japanese (ja)
Inventor
Yasuo Katano
康生 片野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012154907A priority Critical patent/JP2014016895A/en
Publication of JP2014016895A publication Critical patent/JP2014016895A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information extraction device in which a calculation time is shortened so that an important image sample can be extracted.SOLUTION: A sampling parameter according to a reference section of input image string is set; a plurality of image samples are extracted from the image string on the basis of the set sampling parameter. Accordingly, an evaluation value of the extracted image sample is calculated, and by using the calculated evaluation value, a sampling density distribution of a reference section different from the reference section of the extracted image sample is calculated. When setting a sampling parameter, a sampling parameter in the reference section is set by using the sampling density distribution.

Description

本発明は、特に、画像サンプルを抽出するために用いて好適な情報抽出装置、情報抽出方法及びプログラムに関する。   The present invention particularly relates to an information extraction apparatus, an information extraction method, and a program suitable for use in extracting an image sample.

従来、動画像の要約や、画像の検索、動画像の代表画像の抽出、ハイライトシーンの検出、イベントの検出、画像認識など、多くのアプリケーションにおいて動画などから画像サンプルを抽出する技術が用いられている。そこで、動画像から重要度の高い複数の画像サンプルを抽出する技術を向上させる要求が高まっている。   Conventionally, techniques for extracting image samples from moving images have been used in many applications, such as summary of moving images, image search, extraction of representative images of moving images, highlight scene detection, event detection, image recognition, etc. ing. Therefore, there is an increasing demand for improving a technique for extracting a plurality of highly important image samples from a moving image.

例えば特許文献1には、予め用意した特定イベントや顔などの特定物体をテンプレートにして、画像内に該当する特定物体が検出された画像フレームを抽出する方法が開示されている。また、特許文献2には、時系列フレームを抽出する方法であって、基準フレームを特定物体やカメラモーション特徴量などから抽出し、その前後を比較することにより連続フレームを取得する技術が開示されている。また、非特許文献1には、PRFD法、RIFAS法などの時系列アクティブ探索法が開示されている。このようにこれらの方法は、特定シーンや特定物体をあらかじめ用意して検出している技術である。   For example, Patent Document 1 discloses a method of extracting an image frame in which a specific object is detected in an image using a specific object such as a specific event or face prepared in advance as a template. Patent Document 2 discloses a technique for extracting time-series frames, in which a reference frame is extracted from a specific object, a camera motion feature amount, and the like, and a continuous frame is acquired by comparing before and after. ing. Non-Patent Document 1 discloses time-series active search methods such as the PRFD method and the RIFAS method. As described above, these methods are techniques for preparing and detecting a specific scene or a specific object in advance.

一方、非特許文献2には、一定区間の画像列を学習データにしてイベント検知を行う装置が開示されている。この技術のように、教師なし学習技術をベースに異常検知を行う場合は、画像列の区間が不明なため複数の参照区間を設定して検出を行う必要がある。   On the other hand, Non-Patent Document 2 discloses an apparatus that detects an event using an image sequence in a certain section as learning data. When performing abnormality detection based on an unsupervised learning technique like this technique, it is necessary to perform detection by setting a plurality of reference sections because the section of the image sequence is unknown.

特開2010−109592号公報JP 2010-109592 A 特開2011−8508号公報JP 2011-8508 A

南里卓也、大津展之、“複数人動画像からの異常動作検出”、情報処理学会論文誌。コンピュータビジョンとイメージメディア、Vol.45, No.SIG15、 pp.43-50、 2005Takuya Nanzato, Nobuyuki Otsu, “Abnormal Motion Detection from Multiple Human Motion Images”, IPSJ Transactions. Computer Vision and Image Media, Vol.45, No.SIG15, pp.43-50, 2005 比戸将平、坪井祐太、鹿島久嗣、杉山将、”密度比推定を用いた特異点検出手法”、第10回情報論的学習理論ワ−クショップ予稿集、 pp.197-204, 横浜, 2007.11.5-7.Shohei Hito, Yuta Tsuboi, Hisashi Kashima, Masaru Sugiyama, “Singularity Detection Method Using Density Ratio Estimation”, Proc. 10th Information Theory Learning Theory Workshop, pp.197-204, Yokohama, 2007.11.5-7.

前述した手法の場合、長い参照区間を設定して大量の画像サンプルセットを用意した場合に、学習に多くの時間がかかるという問題がある。そこで、一定のサンプリング間隔を設定することにより、画像サンプル数を減らすことができるが、重要なイベントを含むフレームもほとんど変化のないフレームも区別できないため、重要なフレームをサンプリングできない場合がある。   In the case of the above-described method, there is a problem that it takes a long time for learning when a large reference section is set and a large number of image sample sets are prepared. Therefore, by setting a certain sampling interval, the number of image samples can be reduced. However, since a frame containing an important event and a frame with little change cannot be distinguished, an important frame may not be sampled.

本発明は前述の問題点に鑑み、計算時間を短縮して重要な画像サンプルを抽出できるようにすることを目的としている。   An object of the present invention is to reduce the calculation time and extract important image samples in view of the above-described problems.

本発明の情報抽出装置は、動画像を構成する画像列を入力する入力手段と、前記入力手段により入力された画像列の参照区間に応じたサンプリングパラメータを設定する設定手段と、前記設定手段によって設定されたサンプリングパラメータに基づいて前記画像列から複数の画像サンプルを抽出する抽出手段と、前記抽出手段によって抽出された画像サンプルの評価値を算出する評価手段と、前記評価手段によって算出された評価値を用いて、前記抽出手段によって抽出された画像サンプルの参照区間とは異なる参照区間のサンプリング密度分布を算出する算出手段とを備え、前記設定手段は、前記サンプリング密度分布を用いて、前記算出手段によって前記サンプリング密度分布を算出した参照区間のサンプリングパラメータを設定することを特徴とする。   The information extraction apparatus according to the present invention includes an input unit that inputs an image sequence constituting a moving image, a setting unit that sets a sampling parameter according to a reference section of the image sequence input by the input unit, and the setting unit. Extraction means for extracting a plurality of image samples from the image sequence based on a set sampling parameter, evaluation means for calculating an evaluation value of the image sample extracted by the extraction means, and evaluation calculated by the evaluation means Calculation means for calculating a sampling density distribution in a reference section different from the reference section of the image sample extracted by the extraction means using a value, and the setting means uses the sampling density distribution to calculate the calculation The sampling parameter of the reference interval for which the sampling density distribution is calculated by means is set. The features.

本発明によれば、重要な画像サンプルを効率良く抽出することができ、他のアプリケーションの処理を容易にすることができる。   According to the present invention, important image samples can be extracted efficiently, and processing of other applications can be facilitated.

本発明の実施形態に係る画像サンプリング装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the image sampling apparatus which concerns on embodiment of this invention. 実際に使用する画像列から、階層的に画像サンプルを抽出する場合の設定状況を示す図である。It is a figure which shows the setting condition in the case of extracting an image sample hierarchically from the image sequence actually used. 一般的なサンプリング数と計算時間との関係を示す図である。It is a figure which shows the relationship between the general sampling number and calculation time. 第1の実施形態において、サンプリング密度分布Pを具体的に算出する手順を説明するための図である。In the first embodiment, it is a diagram for explaining the procedure for specifically calculating the sampling density distribution P S. 第2の実施形態におけるサンプリング密度分布算出部の詳細な機能構成例を示すブロック図である。It is a block diagram which shows the detailed functional structural example of the sampling density distribution calculation part in 2nd Embodiment. 階層1〜階層3についての非類似スコアの分布の一例を示す図である。It is a figure which shows an example of distribution of the dissimilar score about the hierarchy 1 to the hierarchy 3.

(第1の実施形態)
以下、本発明の第1の実施形態について、図面を参照しながら説明する。
図1は、本実施形態に係る画像サンプリング装置(情報抽出装置)100の機能構成例を示すブロック図である。
図1に示すように、本実施形態に係る画像サンプリング装置100は、画像入力部110、パラメータ設定部120、画像サンプル抽出部130、画像評価部140、及びサンプリング密度分布算出部150にて構成されている。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram illustrating a functional configuration example of an image sampling device (information extraction device) 100 according to the present embodiment.
As shown in FIG. 1, the image sampling apparatus 100 according to the present embodiment includes an image input unit 110, a parameter setting unit 120, an image sample extraction unit 130, an image evaluation unit 140, and a sampling density distribution calculation unit 150. ing.

画像入力部110は、ビデオカメラなど時系列的に連続な画像を取得する。本実施形態では、ビデオカメラにより30分の動画像を構成する画像列111を取得する例について説明するが、これに限定するものではなく、予め録画したビデオファイルなど連続する時系列画像を入力する構成であってもよい。   The image input unit 110 acquires continuous images in time series such as a video camera. In this embodiment, an example in which an image sequence 111 constituting a 30-minute moving image is acquired by a video camera is described. However, the present invention is not limited to this, and continuous time-series images such as pre-recorded video files are input. It may be a configuration.

パラメータ設定部120は、連続した画像列111からフレーム画像をサンプリングするために必要なパラメータを設定する。本実施例形態では、パラメータ設定部120は、階層パラメータ設定部125とサンプリングパラメータ設定部126とから構成されている。   The parameter setting unit 120 sets parameters necessary for sampling frame images from the continuous image sequence 111. In the present embodiment, the parameter setting unit 120 includes a hierarchical parameter setting unit 125 and a sampling parameter setting unit 126.

階層パラメータ設定部125は、階層構造全体を処理する際に初回のみ動作し、サンプリングの基準となるキーフレームt、総階層数N、各階層でのサンプリング数S、及び参照区間Δtからなる階層構造パラメータ127を決定する。 The hierarchical parameter setting unit 125 operates only for the first time when the entire hierarchical structure is processed. From the key frame t 0 , the total number of layers N, the number of samples S n in each layer, and the reference interval Δt n as the sampling reference The hierarchical structure parameter 127 is determined.

図2は、本実施形態で実際に使用する画像列111から、階層的に画像サンプルを抽出する場合の設定状況を示す図である。図2には、総階層数Nが5である場合の例を示している。
本実施形態においては、図2に示すように、同一のキーフレームtを起点に異なる参照区間(参照区間Δt〜参照区間Δt)の階層1〜階層5を設定する。これにより、それぞれの参照区間の長さに応じて動作からシーンまで異なるイベントの検出を可能としている。
FIG. 2 is a diagram showing a setting situation when image samples are extracted hierarchically from the image sequence 111 actually used in the present embodiment. FIG. 2 shows an example in which the total number of hierarchies N is 5.
In the present embodiment, as shown in FIG. 2, layers 1 to 5 of different reference sections (reference section Δt 1 to reference section Δt 5 ) are set starting from the same key frame t 0 . This makes it possible to detect different events from operation to scene according to the length of each reference section.

例えば、30fpsのビデオカメラで撮像した30分の動画像を構成する画像列111(54000フレーム分)に対して、ある時刻tを基準として、参照区間Δtは、階層パラメータ設定部125により以下のように設定される。まず、最上段の参照区間Δtでは、Δt=t−tとなり、以下、参照区間Δt=t−tとなる。図2に示す例の場合、参照区間Δt=1800(1分)であり、参照区間Δt=30(1秒)であるものとする。 For example, with respect to an image sequence 111 (54000 frames) constituting a 30-minute moving image captured by a 30 fps video camera, the reference interval Δt n is set as follows by the hierarchical parameter setting unit 125 based on a certain time t 0. It is set like this. First, in the uppermost reference section Δt 5 , Δt 5 = t 0 −t 5 , and hereinafter, the reference section Δt k = t 0 −t k . In the example shown in FIG. 2, it is assumed that the reference interval Δt 5 = 1800 (1 minute) and the reference interval Δt 1 = 30 (1 second).

サンプリングパラメータ設定部126は、階層パラメータ設定部125が設定した階層構造パラメータ127を元に、階層ごとのサンプリング密度分布Pを設定する。そして、各階層のベース密度分布Pと、サンプリング密度分布Pとを加算して、階層nにおける合成サンプリング密度分布Pを以下の式(1)により計算する。
=α(P+P) ・・・(1)
Sampling the parameter setting unit 126, based on a hierarchical structure parameters 127 hierarchical parameter setting unit 125 has set, to set the sampling density distribution P S of each layer. Then, the base density distribution P B of each layer and the sampling density distribution P S are added, and the combined sampling density distribution P n in the layer n is calculated by the following equation (1).
P n = α (P B + P S ) (1)

ここでαは正規化係数であり、階層nの後述する抽出区間スコアとベース密度分布との和による波形の振幅最大値の逆数となる。また、本実施形態におけるベース密度分布Pは、P=const.として定義している。これにより、ベース密度分布がない場合にサンプリング密度が0になってしまい、サンプリングされない参照区間が発生することを防いでいる。そして、階層構造パラメータ127及び合成サンプリング密度分布Pをサンプリングパラメータ121として出力する。 Here, α is a normalization coefficient, which is the reciprocal of the maximum amplitude value of the waveform by the sum of an extraction interval score (to be described later) of the layer n and the base density distribution. In addition, the base density distribution P B in the present embodiment is P B = const. It is defined as As a result, the sampling density becomes 0 when there is no base density distribution, thereby preventing the occurrence of a reference section that is not sampled. Then, the hierarchical structure parameter 127 and the combined sampling density distribution P n are output as the sampling parameter 121.

画像サンプル抽出部130は、パラメータ設定部120から出力されるサンプリングパラメータ121を用いて画像列111から画像サンプルセット131を抽出する。すなわち、サンプリングパラメータ121を元に、画像列111のフレームから、合成サンプリング密度分布Pに応じたランダムサンプリングによってサンプリング数S分のフレーム画像を画像サンプルセット131として抽出する。 The image sample extraction unit 130 extracts the image sample set 131 from the image sequence 111 using the sampling parameter 121 output from the parameter setting unit 120. That is, based on the sampling parameter 121, from the frame of the image sequence 111, and extracts the number of samples S n partial frame image by random sampling in accordance with the synthetic sampling density distribution P n as an image sample set 131.

本実施形態においては、動画像の画像列111から抽出される画像サンプルセット131は、画像サンプリング装置100を含む上位階層(アプリケーション層)に伝達される。そして、セキュリティカメラや家庭用ビデオカメラなどに搭載される画像認識、イベント検出、ビデオセグメンテーションなど様々な画像処理アプリケーションに使用される。   In the present embodiment, the image sample set 131 extracted from the moving image sequence 111 is transmitted to an upper layer (application layer) including the image sampling device 100. And it is used for various image processing applications such as image recognition, event detection, video segmentation, etc. mounted on security cameras and home video cameras.

画像評価部140は、サンプリング数Sの画像サンプルセット131を用いて参照区間Δtでの画像の統計的評価を行い、階層nでの評価値Eを出力する。本実施形態では、非特許文献2に記載された手法により評価値Eを算出する。具体的には、ある画像サンプルセット131を訓練データとし、別工程で抽出された画像サンプルセットを検証データとする。そして、二つのデータ集合に対応する二つの確率密度の比を用いて特異点を検出する。そして、評価値Eは、二つのデータ集合間の特異値とする。なお、この評価値Eを、画像サンプリング装置100を含む上位階層(アプリケーション層)に伝達し、様々な画像処理アプリケーションに使用される構成であってもよい。 The image evaluation unit 140 performs a statistical evaluation of the image of the reference section Delta] t n by using the image sample set 131 of the sampling number S n, and outputs the evaluation value E n of the hierarchy n. In the present embodiment, to calculate the evaluation value E n by the technique described in Non-Patent Document 2. Specifically, an image sample set 131 is used as training data, and an image sample set extracted in another process is used as verification data. Then, a singular point is detected using the ratio of the two probability densities corresponding to the two data sets. Then, evaluation value E n is a singular value between two data sets. Incidentally, the evaluation value E n, and transmitted to the upper layer (application layer) containing an image sampling device 100 may be configured for use in various image processing applications.

図3は、サンプリング数と計算時間との関係を示す図である。図3において、横軸はサンプリング数を示し、縦軸は該当するサンプリング数の画像サンプルセットを評価するのにかかった時間を示している。一般的に、サンプリング数の増加に従い、非線形に計算時間が増加する。   FIG. 3 is a diagram illustrating the relationship between the number of samplings and the calculation time. In FIG. 3, the horizontal axis represents the number of samplings, and the vertical axis represents the time taken to evaluate the image sample set having the corresponding number of samplings. Generally, the calculation time increases nonlinearly as the number of samplings increases.

図2に示した設定の場合、階層1での処理は、全フレームをサンプリングした場合でも数秒程度である。一方、階層5の参照区間Δtを全フレームにおいてサンプリングにより評価すると、例えば、1800フレームで約1088秒の計算時間が必要となる。そこで本実施形態では、このような計算時間を短縮するために、以下に説明するようにサンプリング密度分布Pを算出して、適切な画像サンプルセットを取得できるようにしている。 In the case of the setting shown in FIG. 2, the processing in the hierarchy 1 is about several seconds even when all the frames are sampled. On the other hand, when the reference section Delta] t 5 hierarchy 5 is evaluated by sampling the entire frame, for example, it is required computation time of about 1088 seconds at 1800 frames. Therefore, in this embodiment, in order to reduce such a calculation time, and it calculates the sampling density distribution P S as described below, and be able to get an appropriate image sample set.

サンプリング密度分布算出部150は、評価値E及びサンプリングパラメータ121をもとに、上段の階層n+1の参照区間Δtn+1におけるサンプリング密度分布Pを算出する。そして、パラメータ設定部120へ出力する。本実施形態では、総階層数Nはあらかじめ階層パラメータ設定部125により設定されているため、階層nが総階層数Nに達した時点でループを脱し、次のキーフレームに移行する。 Sampling density distribution calculating unit 150, based on the evaluation value E n and sampling parameters 121, calculates the sampling density distribution P S in the reference section Delta] t n + 1 in the upper hierarchy n + 1. And it outputs to the parameter setting part 120. In the present embodiment, since the total number of layers N is set in advance by the layer parameter setting unit 125, when the layer n reaches the total number of layers N, the loop is exited and the process proceeds to the next key frame.

次に、サンプリング密度分布Pを具体的に算出する例について、図4を参照しながら説明する。図4において、横軸は時間を示し、縦軸は画像評価部140より算出された評価値Eとして非類似スコアを示している。また、階層パラメータ設定部125により参照区間Δt=30(フレーム数)、サンプリング数S=20と設定されているものとする。 Next, an example for specifically calculating the sampling density distribution P S, is described with reference to FIG. 4, the horizontal axis represents time and the vertical axis represents the dissimilar score as the evaluation value E n calculated from the image evaluation unit 140. In addition, it is assumed that the hierarchical parameter setting unit 125 sets the reference section Δt 1 = 30 (the number of frames) and the sampling number S 1 = 20.

まず、階層1は初期階層であることから、サンプリング密度分布算出部150によりサンプリング密度分布Pは算出されていない。このため、サンプリングパラメータ設定部126は、サンプリング密度分布P=0、α=1とし、予め設定されたベース密度分布Pのみをそのまま合成サンプリング密度分布Pとしてサンプリングパラメータ121を設定する。このように本実施形態では、ベース密度分布Pを一様分布として定義し、階層1のサンプリング密度分布とする。 First, hierarchical 1 since the initial hierarchy, the sampling density distribution P S by sampling density distribution calculating unit 150 is not calculated. Therefore, the sampling parameter setting unit 126 sets the sampling parameter 121 as the sampling density distribution P S = 0 and α = 1, and uses only the preset base density distribution P B as the combined sampling density distribution P 1 as it is. As described above, in this embodiment, the base density distribution P B is defined as a uniform distribution, and the sampling density distribution of the hierarchy 1 is used.

次に、画像サンプル抽出部130は、合成サンプリング密度分布Pと、サンプリング数S(S=20)とに基づき、キーフレームtから30フレーム分の参照区間Δtからランダムサンプリングにて20枚のフレーム画像を抽出する。この場合、合成サンプリング密度分布Pはベース密度分布Pと同じであり、一様分布であるため、参照区間Δtでは均等確率なサンプリングとなる。 Next, the image sample extraction unit 130 performs random sampling from the reference interval Δt 1 for 30 frames from the key frame t 0 based on the combined sampling density distribution P 1 and the sampling number S 1 (S 1 = 20). Twenty frame images are extracted. In this case, the combined sampling density distribution P 1 is the same as the base density distribution P B and is a uniform distribution, and therefore, sampling with equal probability is performed in the reference interval Δt 1 .

なお、本実施形態では、ベース密度分布Pは一様分布であるものとしたが、その他の方法によりベース密度分布Pを定義してもよい。例えば、ベース密度分布P=A(t−t)+const.とし、時間によって減衰(忘却)もしくは増加するように定義してもよい。さらには、ベース密度分布P=A(Δtn−1−Δt)+const.とし、新規に追加された参照区間の領域のみベース密度を増加させるように定義してもよい。また、ベース密度分布Pを複数用意し、選択できるようにしてもよい。 In the present embodiment, the base density distribution P B is a uniform distribution, but the base density distribution P B may be defined by other methods. For example, base density distribution P B = A (t 0 −t) + const. And may be defined to decay (forget) or increase with time. Further, the base density distribution P B = A (Δt n−1 −Δt n ) + const. And the base density may be defined to increase only in the newly added reference section region. Alternatively, a plurality of base density distributions P B may be prepared and selected.

次に、画像評価部140は、抽出された20フレームの画像サンプルセット131を訓練データとする。そして、図4に示すようなキーフレームt後の30フレーム分の検証データ用参照区間411から抽出した20フレーム分の検証用の画像サンプルセットを検証データとする。なお、検証データ用参照区間411から抽出するフレーム数については、どのように決定してもよく、例えば、予め階層ごとに参照するフレーム数を決めておくようにしてもよい。そして、非特許文献2に記載されている手法を用いて非類似スコア141を算出する。本実施形態では、キーフレームtを時間軸上に移動させ、キーフレーム毎の非類似スコア(評価値E)を算出する。その結果、図4に示すように、階層1の非類似スコア431が時系列データの軌跡として算出される。 Next, the image evaluation unit 140 uses the extracted 20-frame image sample set 131 as training data. Then, a verification image sample set for 20 frames extracted from the verification data reference section 411 for 30 frames after the key frame t 0 as shown in FIG. 4 is set as verification data. Note that the number of frames extracted from the verification data reference section 411 may be determined in any way. For example, the number of frames to be referred to for each layer may be determined in advance. Then, the dissimilarity score 141 is calculated using the method described in Non-Patent Document 2. In the present embodiment, the key frame t 0 is moved on the time axis, and the dissimilarity score (evaluation value E 1 ) for each key frame is calculated. As a result, as shown in FIG. 4, the dissimilarity score 431 of the hierarchy 1 is calculated as a trajectory of time series data.

次に、サンプリング密度分布算出部150は、次段である階層2のサンプリング密度分布Pを算出する。なお、階層パラメータ設定部125により、階層2の参照区間Δt=40、サンプリング数S=30と設定されているものとする。本実施形態では、まず、キーフレームtを基準として、階層2の参照区間Δtの40フレーム分の非類似スコアを階層1の非類似スコア431から抽出し、抽出区間スコア441とする。そして、抽出区間スコア441でスコアの高いフレームには画像上で変化の大きいフレームが含まれている確率が高いため、抽出区間スコア441の波形の振幅を1に正規化して階層2のサンプリング密度分布Pとする。 Next, the sampling density distribution calculating unit 150 calculates the sampling density distribution P S of the hierarchy 2 is the next stage. It is assumed that the hierarchical parameter setting unit 125 sets the reference section Δt 2 = 40 of the hierarchical level 2 and the sampling number S 2 = 30. In the present embodiment, first, 40 frames of dissimilar scores in the reference section Δt 2 of the hierarchy 2 are extracted from the dissimilar scores 431 of the hierarchy 1 with the key frame t 0 as a reference, and the extracted section scores 441 are obtained. Since there is a high probability that a frame having a high score in the extracted section score 441 includes a frame having a large change on the image, the amplitude of the waveform of the extracted section score 441 is normalized to 1, and the sampling density distribution of the layer 2 Let P S.

このようにして算出されたサンプリング密度分布Pは、サンプリングパラメータ設定部126に入力され、前述した式(1)により合成サンプリング密度分布Pが算出される。このとき、正規化係数αは、階層2の抽出区間スコア441とベース密度分布Pとの和による波形の振幅最大値の逆数となる。 Thus the sampling density distribution P S that is calculated is inputted to the sampling parameter setting unit 126, synthetic sampling density distribution P 2 is calculated by the equation (1) described above. At this time, the normalization coefficient α is the reciprocal of the maximum amplitude value of the waveform by the sum of the extraction interval score 441 of the layer 2 and the base density distribution P B.

以上のように算出した合成サンプリング密度分布Pを元に上記の処理を繰り返すことによって、総階層数Nまでの画像サンプルセット131を抽出することができる。ここで、処理時間を短縮するために、階層パラメータ設定部125にて各階層のサンプリング数Sを減少させてもよい。 By repeating the calculated composite sampling density distribution P 2 above processing based on the above, it is possible to extract an image sample set 131 to the total number of layers N. In order to shorten the processing time, it may reduce the sampling number S n of each layer in the hierarchical parameter setting unit 125.

また、階層2からは、合成サンプリング密度分布Pは一様でない分布となる。したがって、画像サンプル抽出部130は、合成サンプリング密度分布Pにより、変化の大きいフレーム領域のサンプリング確率を高く、変化の少ないフレーム領域のサンプリング確率を低く設定する。これにより適切な画像サンプルセット131を取得することが可能になる。 Also, from level 2, the combined sampling density distribution P n is not uniform. Therefore, the image sample extraction unit 130 sets the sampling probability of the frame region having a large change and the sampling probability of the frame region having a small change to be low by the combined sampling density distribution P n . As a result, an appropriate image sample set 131 can be acquired.

また、本実施形態では、階層パラメータ設定部125において予め総階層数N、各階層の参照区間Δt、サンプリング数Sを決定する例に説明した。一方、総階層数Nを事前に設定しないようにし、隣接する階層間の参照区間の増加量を設定し、さらに終了条件を設定するようにしてもよい。この場合、終了条件としては、画像列111全体に至るまでといった条件や、非類似スコアが全域で閾値を超えない範囲といった条件などが適用可能である。 Further, in the present embodiment it has been described previously the total number of levels in the hierarchical parameter setting unit 125 N, see section Delta] t n of each layer, the example of determining the sampling number S n. On the other hand, the total number of hierarchies N may not be set in advance, the increase amount of the reference section between adjacent hierarchies may be set, and the end condition may be set. In this case, as the end condition, a condition such as reaching the entire image sequence 111, a condition that the dissimilarity score does not exceed the threshold value in the entire area, and the like can be applied.

また、サンプリング数Sについては、初期値としてサンプリング数Sを設定し、順次サンプリング数Sを増加させ、非類似スコアの変化量が閾値以下になるまでサンプリング数Sを増加するようにしてもよい。これにより、各階層でのサンプリング数Sを予め設定する必要はなくなる。 Also, the sampling number S n, sets the number of samples S 1 as an initial value, increasing the sequential sampling number S n, so as to increase the number of samples S n to change the amount of dissimilar score falls below the threshold value May be. Accordingly, it becomes unnecessary to set the sampling number S n in each layer in advance.

以上のように本実施形態によれば、繰り返して合成サンプリング密度分布Pは算出し、その密度分布に基づいて合成サンプリング密度分布Pを算出して、この結果に基づいてサンプリングする画像を抽出するようにした。これにより、重要な画像サンプルを効率良く抽出することができ、他のアプリケーションの処理を容易にすることができる。 According to this embodiment as described above, repeated synthetic sampling density distribution P n is calculated, and calculates the combined sampling density distribution P n on the basis of the density distribution, extract an image to be sampled on the basis of the result I tried to do it. Thereby, an important image sample can be extracted efficiently, and processing of other applications can be facilitated.

(第2の実施形態)
以下、本発明の第2の実施形態について図面を参照しながら説明する。なお、本実施形態に係る画像サンプリング装置は、第1の実施形態で説明した画像サンプリング装置100と基本的な構成が同様であるため、構成の説明は省略する。以下、第1の実施形態との相違点のみを説明する。
(Second Embodiment)
Hereinafter, a second embodiment of the present invention will be described with reference to the drawings. Note that the basic configuration of the image sampling device according to the present embodiment is the same as that of the image sampling device 100 described in the first embodiment, and thus the description of the configuration is omitted. Only differences from the first embodiment will be described below.

第1の実施形態との相違点は、サンプリング密度分布算出部150による計算において、前階層の非類似スコアの軌跡を用いるのではなく、前もって非類似度を評価した後にガウス分布を用いてサンプリング密度分布Pを生成する点である。以下、サンプリング密度分布算出部150においてサンプリング密度分布Pを算出する処理手順について説明する。 The difference from the first embodiment is that, in the calculation by the sampling density distribution calculation unit 150, the sampling density is not calculated by using the Gaussian distribution after evaluating the dissimilarity in advance, instead of using the dissimilarity score trajectory of the previous hierarchy. in that to produce a distribution P S. The following describes the processing procedure for calculating the sampling density distribution P S in sampling density distribution calculating unit 150.

図5は、本実施形態におけるサンプリング密度分布算出部150の詳細な機能構成例を示すブロック図である。
図5に示すように、サンプリング密度分布算出部150は、閾値設定部510、ピーク時刻抽出部520、ガウス分布生成部530、及び混合密度分布生成部540によって構成されている。
FIG. 5 is a block diagram illustrating a detailed functional configuration example of the sampling density distribution calculation unit 150 according to the present embodiment.
As shown in FIG. 5, the sampling density distribution calculation unit 150 includes a threshold setting unit 510, a peak time extraction unit 520, a Gaussian distribution generation unit 530, and a mixed density distribution generation unit 540.

図6は、階層1、階層2、階層3についての非類似スコアの分布を示している。
図6において、横軸は時間を示し、縦軸は非類似スコア(評価値E)を示している。ここで、キーフレームtにおいて、階層1及び階層2に対しては画像評価部140により評価値Enが既に算出されているものとする。以下、図5に示す各構成の機能とともに、階層3のサンプリング密度分布Pを算出する例について図6を参照しながら説明する。なお、参照区間Δt、Δtはそれぞれ30、40とする。
FIG. 6 shows the distribution of dissimilar scores for hierarchy 1, hierarchy 2, and hierarchy 3.
In FIG. 6, the horizontal axis represents time, and the vertical axis represents dissimilarity scores (evaluation values E n ). Here, it is assumed that the evaluation value En has already been calculated by the image evaluation unit 140 for the hierarchy 1 and the hierarchy 2 in the key frame t 0 . Hereinafter, with the function of the arrangement shown in FIG. 5 will be described with reference to FIG. 6 for an example of calculating the sampling density distribution P S hierarchy 3. Reference intervals Δt 1 and Δt 2 are 30 and 40, respectively.

閾値設定部510は、各階層における閾値601〜603を設定する。本実施形態では予め適切な値を設定するものとする。   The threshold setting unit 510 sets thresholds 601 to 603 in each layer. In this embodiment, an appropriate value is set in advance.

次に、ピーク時刻抽出部520は、非類似スコアの軌跡から閾値を超えたピークを検出し、そのピーク時刻t を検出する。ここで、nは階層を示し、mは閾値を超えたピークの番号を示す。図6に示す例では、階層1においてはピーク時刻t 〜t が検出され、階層2においてはピーク時刻t 〜t が検出される。さらに、これらのピーク時刻t に対して、各階層の参照区間Δt、tを適用して、図6に示すようにそれぞれの部分領域611〜615を設定する。 Next, the peak time extracting section 520 detects a peak exceeding the threshold from the trajectory of dissimilar score, and detects the peak time t m n. Here, n indicates a hierarchy, and m indicates a peak number exceeding a threshold value. In the example shown in FIG. 6, the peak time t 0 1 ~t 2 1 is detected in the hierarchy 1, peak time t 1 2 ~t 2 2 is detected in the hierarchy 2. Furthermore, for these peak time t m n, by applying the reference section Delta] t 1, t 2 of each layer, and setting the respective partial areas 611-615, as shown in FIG.

なお、図6に示す例では、階層2で検出されたピーク時刻のうち、階層1で検出されたピーク時刻t と同期するピーク時刻については除外している。これは、特に各階層の参照区間Δtの差が少ない場合は、同じピーク時刻を別階層でも検出してしまうことが多くなり、これらをすべて合成してしまうと新規で検出されたピーク時刻の成分の影響度が少なくなってしまうからである。なお、同期したピーク時刻も含めて部分領域を抽出しても構わない。 In the example illustrated in FIG. 6, the peak time synchronized with the peak time t m 1 detected in the hierarchy 1 among the peak times detected in the hierarchy 2 is excluded. This is because, in particular, when the difference in the reference interval Δt n of each layer is small, the same peak time is often detected in another layer, and when all of these are combined, the newly detected peak time This is because the influence of the component is reduced. Note that the partial region may be extracted including the synchronized peak time.

次に、ガウス分布生成部530は、対象となる部分領域611〜615に対してガウス分布を生成する。例えばピーク時刻t におけるガウス分布については、以下の式(2)に示すようにピーク時刻t を平均μとし参照区間Δtを両区間に持ち、3σ=2Δtとなるようにσを設定したガウス分布fを生成する。 Next, the Gaussian distribution generation unit 530 generates a Gaussian distribution for the target partial regions 611 to 615. For example, for the Gaussian distribution at the peak time t 0 1 , as shown in the following formula (2), the peak time t 0 1 is an average μ, the reference section Δt 1 is in both sections, and σ so that 3σ = 2Δt 1 is satisfied. To generate a Gaussian distribution f.

Figure 2014016895
Figure 2014016895

他のピーク時刻t に対しても同様に計算し、部分領域に対するガウス分布fをすべて算出する。 Also calculated similarly for the other peak time t m n, calculates all the Gaussian distribution f for the partial region.

次に、混合密度分布生成部540は、各ピーク時刻t におけるガウス分布fを合成し、以下の式(3)により混合ガウス分布pを生成する。 Then, mixture density distribution generating unit 540 synthesizes the Gaussian distribution f at each peak time t m n, to produce a mixed Gaussian distribution p by the following equation (3).

Figure 2014016895
式中、πは、混合比を示す。
Figure 2014016895
In the formula, π k represents a mixing ratio.

本実施形態では、生成した混合ガウス分布pをサンプリング密度分布Pとして出力する。以後の処理は、第1の実施形態と同様となる。 In the present embodiment, and it outputs the generated mixed Gaussian distribution p as the sampling density distribution P S. Subsequent processing is the same as in the first embodiment.

(第3の実施形態)
以下、本発明の第3の実施形態について説明する。なお、本実施形態に係る画像サンプリング装置は、第1の実施形態で説明した画像サンプリング装置100と基本的な構成が同様であるため、構成の説明は省略する。以下、第1の実施形態との相違点のみを説明する。
(Third embodiment)
Hereinafter, a third embodiment of the present invention will be described. Note that the basic configuration of the image sampling device according to the present embodiment is the same as that of the image sampling device 100 described in the first embodiment, and thus the description of the configuration is omitted. Only differences from the first embodiment will be described below.

第1の実施形態との相違点は、サンプリング密度分布算出部150による計算において、前階層の非類似スコアの軌跡を用いるのではなく、非類似度の高い領域の参照領域をそのままサンプリング密度分布として用いる点である。本実施形態では、サンプリング密度分布算出部150において、サンプリング密度分布Pを算出する別の例について説明する。 The difference from the first embodiment is that, in the calculation by the sampling density distribution calculation unit 150, the reference region of the region having a high degree of dissimilarity is used as the sampling density distribution as it is, instead of using the trajectory of the dissimilar score of the previous hierarchy. It is a point to use. In the present embodiment, the sampling density distribution calculation unit 150, a description will be given of another example of calculating the sampling density distribution P S.

第2の実施形態では、ガウス分布を用いてサンプリング密度分布Pを算出したが、部分領域611〜615に対して、幅を階層の参照区間Δtに設定し、高さを閾値からの突出割合の比による矩形領域fとして設定してもよい。そして、それぞれの矩形領域を合成することによって混合密度分布を生成し、該当領域内を均等にサンプリングすることが可能なサンプリング密度分布Pを設定することも可能である。 In the second embodiment, to calculate the sampling density distribution P S using a Gaussian distribution, with respect to partial regions 611-615, to set the width to the hierarchy of the reference period Delta] t n, the protrusion of the height from the threshold You may set as the rectangular area | region f by the ratio of a ratio. Then, to generate the mixed density distribution by combining the respective rectangular regions, it is also possible to set the sampling density distribution P S which is capable of uniformly sampled the corresponding region.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

110 画像入力部
120 パラメータ設定部
130 画像サンプル抽出部
140 画像評価部
150 サンプリング密度分布算出部
DESCRIPTION OF SYMBOLS 110 Image input part 120 Parameter setting part 130 Image sample extraction part 140 Image evaluation part 150 Sampling density distribution calculation part

Claims (13)

動画像を構成する画像列を入力する入力手段と、
前記入力手段により入力された画像列の参照区間に応じたサンプリングパラメータを設定する設定手段と、
前記設定手段によって設定されたサンプリングパラメータに基づいて、前記画像列から複数の画像サンプルを抽出する抽出手段と、
前記抽出手段によって抽出された画像サンプルの評価値を算出する評価手段と、
前記評価手段によって算出された評価値を用いて、前記抽出手段によって抽出された画像サンプルの参照区間とは異なる参照区間のサンプリング密度分布を算出する算出手段とを備え、
前記設定手段は、前記サンプリング密度分布を用いて、前記算出手段によって前記サンプリング密度分布を算出した参照区間のサンプリングパラメータを設定することを特徴とする情報抽出装置。
An input means for inputting an image sequence constituting a moving image;
Setting means for setting a sampling parameter corresponding to a reference section of the image sequence input by the input means;
Extraction means for extracting a plurality of image samples from the image sequence based on the sampling parameters set by the setting means;
Evaluation means for calculating an evaluation value of the image sample extracted by the extraction means;
Using the evaluation value calculated by the evaluation means, and a calculation means for calculating a sampling density distribution of a reference section different from the reference section of the image sample extracted by the extraction means,
The information extraction apparatus according to claim 1, wherein the setting means sets a sampling parameter of a reference section in which the sampling density distribution is calculated by the calculation means, using the sampling density distribution.
前記抽出手段は、参照区間ごとにそれぞれ前記画像列から複数の画像サンプルを抽出し、
前記評価手段は、前記抽出手段によって参照区間ごとに抽出された画像サンプルの評価値を参照区間ごとに算出することを特徴とする請求項1に記載の情報抽出装置。
The extraction means extracts a plurality of image samples from the image sequence for each reference section,
The information extracting apparatus according to claim 1, wherein the evaluation unit calculates an evaluation value of the image sample extracted for each reference section by the extraction unit for each reference section.
前記設定手段は、前記参照区間の起点となる時刻のフレームを設定することを特徴とする請求項1または2に記載の情報抽出装置。   The information extracting apparatus according to claim 1, wherein the setting unit sets a frame of time that is a starting point of the reference section. 前記設定手段は、複数の参照区間を設定することを特徴とする請求項1乃至3の何れか1項に記載の情報抽出装置。   The information extraction apparatus according to claim 1, wherein the setting unit sets a plurality of reference sections. 前記設定手段は、前記抽出手段によって抽出される画像サンプルの数を設定することを特徴とする請求項1乃至4の何れか1項に記載の情報抽出装置。   The information extracting apparatus according to claim 1, wherein the setting unit sets the number of image samples extracted by the extracting unit. 前記設定手段は、前記サンプリング密度分布に加算する密度分布を設定することを特徴とする請求項1乃至5の何れか1項に記載の情報抽出装置。   6. The information extracting apparatus according to claim 1, wherein the setting unit sets a density distribution to be added to the sampling density distribution. 前記設定手段は、前記参照区間の数を設定することを特徴とする請求項1乃至6の何れか1項に記載の情報抽出装置。   The information extracting apparatus according to claim 1, wherein the setting unit sets the number of the reference sections. 前記算出手段は、異なる参照区間の非類似度の分布からサンプリング密度分布を算出することを特徴とする請求項1乃至7の何れか1項に記載の情報抽出装置。   The information extraction apparatus according to claim 1, wherein the calculation unit calculates a sampling density distribution from a distribution of dissimilarities in different reference sections. 前記評価手段は、前記画像サンプルと、検証用の画像サンプルとの非類似度を評価値として算出することを特徴とする請求項1乃至8の何れか1項に記載の情報抽出装置。   9. The information extraction apparatus according to claim 1, wherein the evaluation unit calculates a dissimilarity between the image sample and a verification image sample as an evaluation value. 前記算出手段は、
前記評価値に閾値を設定する閾値設定手段と、
サンプリング密度分布を算出する対象となる参照区間において、前記評価値が前記閾値設定手段によって設定された閾値を超えた時刻を含む区間を抽出し、前記抽出された区間の長さに基づく密度分布を重ね合わせた混合密度分布を生成する生成手段とを備え、
前記混合密度分布を前記サンプリング密度分布とすることを特徴とする請求項1乃至8の何れか1項に記載の情報抽出装置。
The calculating means includes
Threshold setting means for setting a threshold for the evaluation value;
In a reference section for which a sampling density distribution is calculated, a section including a time when the evaluation value exceeds a threshold set by the threshold setting means is extracted, and a density distribution based on the length of the extracted section is obtained. Generating means for generating a superposed mixed density distribution,
The information extraction apparatus according to claim 1, wherein the mixed density distribution is the sampling density distribution.
前記密度分布はガウス分布であることを特徴とする請求項10に記載の情報抽出装置。   The information extraction apparatus according to claim 10, wherein the density distribution is a Gaussian distribution. 動画像を構成する画像列を入力する入力工程と、
前記入力工程において入力された画像列の参照区間に応じたサンプリングパラメータを設定する設定工程と、
前記設定工程において設定されたサンプリングパラメータに基づいて前記画像列から複数の画像サンプルを抽出する抽出工程と、
前記抽出工程において抽出された画像サンプルの評価値を算出する評価工程と、
前記評価工程において算出された評価値を用いて、前記抽出工程において抽出された画像サンプルの参照区間とは異なる参照区間のサンプリング密度分布を算出する算出工程とを備え、
前記設定工程においては、前記サンプリング密度分布を用いて、前記算出工程において前記サンプリング密度分布を算出した参照区間のサンプリングパラメータを設定することを特徴とする情報抽出方法。
An input process for inputting an image sequence constituting a moving image;
A setting step for setting a sampling parameter according to a reference section of the image sequence input in the input step;
An extraction step of extracting a plurality of image samples from the image sequence based on the sampling parameters set in the setting step;
An evaluation step of calculating an evaluation value of the image sample extracted in the extraction step;
A calculation step of calculating a sampling density distribution of a reference section different from the reference section of the image sample extracted in the extraction step using the evaluation value calculated in the evaluation step;
In the setting step, a sampling parameter of a reference section in which the sampling density distribution is calculated in the calculation step is set using the sampling density distribution.
動画像を構成する画像列を入力する入力工程と、
前記入力工程において入力された画像列の参照区間に応じたサンプリングパラメータを設定する設定工程と、
前記設定工程において設定されたサンプリングパラメータに基づいて前記画像列から複数の画像サンプルを抽出する抽出工程と、
前記抽出工程において抽出された画像サンプルの評価値を算出する評価工程と、
前記評価工程において算出された評価値を用いて、前記抽出工程において抽出された画像サンプルの参照区間とは異なる参照区間のサンプリング密度分布を算出する算出工程とをコンピュータに実行させ、
前記設定工程においては、前記サンプリング密度分布を用いて、前記算出工程において前記サンプリング密度分布を算出した参照区間のサンプリングパラメータを設定することを特徴とするプログラム。
An input process for inputting an image sequence constituting a moving image;
A setting step for setting a sampling parameter according to a reference section of the image sequence input in the input step;
An extraction step of extracting a plurality of image samples from the image sequence based on the sampling parameters set in the setting step;
An evaluation step of calculating an evaluation value of the image sample extracted in the extraction step;
Using the evaluation value calculated in the evaluation step, causing the computer to execute a calculation step of calculating a sampling density distribution in a reference interval different from the reference interval of the image sample extracted in the extraction step,
In the setting step, a sampling parameter of a reference section in which the sampling density distribution is calculated in the calculation step is set using the sampling density distribution.
JP2012154907A 2012-07-10 2012-07-10 Information extraction device, information extraction method, and program Pending JP2014016895A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012154907A JP2014016895A (en) 2012-07-10 2012-07-10 Information extraction device, information extraction method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012154907A JP2014016895A (en) 2012-07-10 2012-07-10 Information extraction device, information extraction method, and program

Publications (1)

Publication Number Publication Date
JP2014016895A true JP2014016895A (en) 2014-01-30

Family

ID=50111495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012154907A Pending JP2014016895A (en) 2012-07-10 2012-07-10 Information extraction device, information extraction method, and program

Country Status (1)

Country Link
JP (1) JP2014016895A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019512126A (en) * 2016-02-29 2019-05-09 アリババ グループ ホウルディング リミテッド Method and system for training a machine learning system
US12026618B2 (en) 2016-02-29 2024-07-02 Alibaba Group Holding Limited Method and system for training machine learning system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019512126A (en) * 2016-02-29 2019-05-09 アリババ グループ ホウルディング リミテッド Method and system for training a machine learning system
JP6991983B2 (en) 2016-02-29 2022-01-14 アリババ グループ ホウルディング リミテッド How and systems to train machine learning systems
US11720787B2 (en) 2016-02-29 2023-08-08 Alibaba Group Holding Limited Method and system for training machine learning system
US12026618B2 (en) 2016-02-29 2024-07-02 Alibaba Group Holding Limited Method and system for training machine learning system

Similar Documents

Publication Publication Date Title
JP6161257B2 (en) Event detection apparatus and method, operation recognition apparatus and method, and program
US10402627B2 (en) Method and apparatus for determining identity identifier of face in face image, and terminal
Mittal et al. Sync-draw: Automatic video generation using deep recurrent attentive architectures
US20170243058A1 (en) Gait recognition method based on deep learning
US11449746B2 (en) Behavioral biometric feature extraction and verification
CN107609149B (en) Video positioning method and device
US10404524B2 (en) Resource and metric ranking by differential analysis
CN107545904B (en) Audio detection method and device
Bayer et al. A multi modal approach to gesture recognition from audio and video data
JP2010225118A (en) Image processing device, method and program
CN107808100B (en) Steganalysis method for specific test sample
JP5192437B2 (en) Object region detection apparatus, object region detection method, and object region detection program
KR102306319B1 (en) Method, Program, Computing Device for generating pose estimation mapping data
US10796158B2 (en) Generation of video hash
JP2009301242A (en) Head candidate extraction method, head candidate extraction device, head candidate extraction program and recording medium recording the program
JP2014016895A (en) Information extraction device, information extraction method, and program
US9508026B2 (en) System and a method for camera motion analysis and understanding from a video sequence
Qin et al. Micro-Expression Spotting with Face Alignment and Optical Flow
KR102339478B1 (en) Method for representing face using dna phenotyping, recording medium and device for performing the method
Amerini et al. Prana: Prnu-based technique to tell real and deepfake videos apart
Saar et al. Cross-browser testing in browserbite
Deotale et al. Optimized hybrid RNN model for human activity recognition in untrimmed video
Chun et al. 3D human pose estimation from RGB-D images using deep learning method
Alshehri et al. Accurate Continuous and Non-intrusive User Authentication with Multivariate Keystroke Streaming.
KR102160583B1 (en) Method and Apparatus for Detecting Object of Event