JP2014016895A - 情報抽出装置、情報抽出方法及びプログラム - Google Patents

情報抽出装置、情報抽出方法及びプログラム Download PDF

Info

Publication number
JP2014016895A
JP2014016895A JP2012154907A JP2012154907A JP2014016895A JP 2014016895 A JP2014016895 A JP 2014016895A JP 2012154907 A JP2012154907 A JP 2012154907A JP 2012154907 A JP2012154907 A JP 2012154907A JP 2014016895 A JP2014016895 A JP 2014016895A
Authority
JP
Japan
Prior art keywords
density distribution
sampling
image
setting
reference section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012154907A
Other languages
English (en)
Inventor
Yasuo Katano
康生 片野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012154907A priority Critical patent/JP2014016895A/ja
Publication of JP2014016895A publication Critical patent/JP2014016895A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Image Analysis (AREA)

Abstract

【課題】計算時間を短縮して重要な画像サンプルを抽出できるようにする。
【解決手段】入力された画像列の参照区間に応じたサンプリングパラメータを設定し、前記設定されたサンプリングパラメータに基づいて前記画像列から複数の画像サンプルを抽出する。そして、前記抽出された画像サンプルの評価値を算出し、前記算出された評価値を用いて、抽出された画像サンプルの参照区間とは異なる参照区間のサンプリング密度分布を算出する。サンプリングパラメータを設定する際には、前記サンプリング密度分布を用いてその参照区間のサンプリングパラメータを設定する。
【選択図】図1

Description

本発明は、特に、画像サンプルを抽出するために用いて好適な情報抽出装置、情報抽出方法及びプログラムに関する。
従来、動画像の要約や、画像の検索、動画像の代表画像の抽出、ハイライトシーンの検出、イベントの検出、画像認識など、多くのアプリケーションにおいて動画などから画像サンプルを抽出する技術が用いられている。そこで、動画像から重要度の高い複数の画像サンプルを抽出する技術を向上させる要求が高まっている。
例えば特許文献1には、予め用意した特定イベントや顔などの特定物体をテンプレートにして、画像内に該当する特定物体が検出された画像フレームを抽出する方法が開示されている。また、特許文献2には、時系列フレームを抽出する方法であって、基準フレームを特定物体やカメラモーション特徴量などから抽出し、その前後を比較することにより連続フレームを取得する技術が開示されている。また、非特許文献1には、PRFD法、RIFAS法などの時系列アクティブ探索法が開示されている。このようにこれらの方法は、特定シーンや特定物体をあらかじめ用意して検出している技術である。
一方、非特許文献2には、一定区間の画像列を学習データにしてイベント検知を行う装置が開示されている。この技術のように、教師なし学習技術をベースに異常検知を行う場合は、画像列の区間が不明なため複数の参照区間を設定して検出を行う必要がある。
特開2010−109592号公報 特開2011−8508号公報
南里卓也、大津展之、"複数人動画像からの異常動作検出"、情報処理学会論文誌。コンピュータビジョンとイメージメディア、Vol.45, No.SIG15、 pp.43-50、 2005 比戸将平、坪井祐太、鹿島久嗣、杉山将、"密度比推定を用いた特異点検出手法"、第10回情報論的学習理論ワ−クショップ予稿集、 pp.197-204, 横浜, 2007.11.5-7.
前述した手法の場合、長い参照区間を設定して大量の画像サンプルセットを用意した場合に、学習に多くの時間がかかるという問題がある。そこで、一定のサンプリング間隔を設定することにより、画像サンプル数を減らすことができるが、重要なイベントを含むフレームもほとんど変化のないフレームも区別できないため、重要なフレームをサンプリングできない場合がある。
本発明は前述の問題点に鑑み、計算時間を短縮して重要な画像サンプルを抽出できるようにすることを目的としている。
本発明の情報抽出装置は、動画像を構成する画像列を入力する入力手段と、前記入力手段により入力された画像列の参照区間に応じたサンプリングパラメータを設定する設定手段と、前記設定手段によって設定されたサンプリングパラメータに基づいて前記画像列から複数の画像サンプルを抽出する抽出手段と、前記抽出手段によって抽出された画像サンプルの評価値を算出する評価手段と、前記評価手段によって算出された評価値を用いて、前記抽出手段によって抽出された画像サンプルの参照区間とは異なる参照区間のサンプリング密度分布を算出する算出手段とを備え、前記設定手段は、前記サンプリング密度分布を用いて、前記算出手段によって前記サンプリング密度分布を算出した参照区間のサンプリングパラメータを設定することを特徴とする。
本発明によれば、重要な画像サンプルを効率良く抽出することができ、他のアプリケーションの処理を容易にすることができる。
本発明の実施形態に係る画像サンプリング装置の機能構成例を示すブロック図である。 実際に使用する画像列から、階層的に画像サンプルを抽出する場合の設定状況を示す図である。 一般的なサンプリング数と計算時間との関係を示す図である。 第1の実施形態において、サンプリング密度分布Pを具体的に算出する手順を説明するための図である。 第2の実施形態におけるサンプリング密度分布算出部の詳細な機能構成例を示すブロック図である。 階層1〜階層3についての非類似スコアの分布の一例を示す図である。
(第1の実施形態)
以下、本発明の第1の実施形態について、図面を参照しながら説明する。
図1は、本実施形態に係る画像サンプリング装置(情報抽出装置)100の機能構成例を示すブロック図である。
図1に示すように、本実施形態に係る画像サンプリング装置100は、画像入力部110、パラメータ設定部120、画像サンプル抽出部130、画像評価部140、及びサンプリング密度分布算出部150にて構成されている。
画像入力部110は、ビデオカメラなど時系列的に連続な画像を取得する。本実施形態では、ビデオカメラにより30分の動画像を構成する画像列111を取得する例について説明するが、これに限定するものではなく、予め録画したビデオファイルなど連続する時系列画像を入力する構成であってもよい。
パラメータ設定部120は、連続した画像列111からフレーム画像をサンプリングするために必要なパラメータを設定する。本実施例形態では、パラメータ設定部120は、階層パラメータ設定部125とサンプリングパラメータ設定部126とから構成されている。
階層パラメータ設定部125は、階層構造全体を処理する際に初回のみ動作し、サンプリングの基準となるキーフレームt、総階層数N、各階層でのサンプリング数S、及び参照区間Δtからなる階層構造パラメータ127を決定する。
図2は、本実施形態で実際に使用する画像列111から、階層的に画像サンプルを抽出する場合の設定状況を示す図である。図2には、総階層数Nが5である場合の例を示している。
本実施形態においては、図2に示すように、同一のキーフレームtを起点に異なる参照区間(参照区間Δt〜参照区間Δt)の階層1〜階層5を設定する。これにより、それぞれの参照区間の長さに応じて動作からシーンまで異なるイベントの検出を可能としている。
例えば、30fpsのビデオカメラで撮像した30分の動画像を構成する画像列111(54000フレーム分)に対して、ある時刻tを基準として、参照区間Δtは、階層パラメータ設定部125により以下のように設定される。まず、最上段の参照区間Δtでは、Δt=t−tとなり、以下、参照区間Δt=t−tとなる。図2に示す例の場合、参照区間Δt=1800(1分)であり、参照区間Δt=30(1秒)であるものとする。
サンプリングパラメータ設定部126は、階層パラメータ設定部125が設定した階層構造パラメータ127を元に、階層ごとのサンプリング密度分布Pを設定する。そして、各階層のベース密度分布Pと、サンプリング密度分布Pとを加算して、階層nにおける合成サンプリング密度分布Pを以下の式(1)により計算する。
=α(P+P) ・・・(1)
ここでαは正規化係数であり、階層nの後述する抽出区間スコアとベース密度分布との和による波形の振幅最大値の逆数となる。また、本実施形態におけるベース密度分布Pは、P=const.として定義している。これにより、ベース密度分布がない場合にサンプリング密度が0になってしまい、サンプリングされない参照区間が発生することを防いでいる。そして、階層構造パラメータ127及び合成サンプリング密度分布Pをサンプリングパラメータ121として出力する。
画像サンプル抽出部130は、パラメータ設定部120から出力されるサンプリングパラメータ121を用いて画像列111から画像サンプルセット131を抽出する。すなわち、サンプリングパラメータ121を元に、画像列111のフレームから、合成サンプリング密度分布Pに応じたランダムサンプリングによってサンプリング数S分のフレーム画像を画像サンプルセット131として抽出する。
本実施形態においては、動画像の画像列111から抽出される画像サンプルセット131は、画像サンプリング装置100を含む上位階層(アプリケーション層)に伝達される。そして、セキュリティカメラや家庭用ビデオカメラなどに搭載される画像認識、イベント検出、ビデオセグメンテーションなど様々な画像処理アプリケーションに使用される。
画像評価部140は、サンプリング数Sの画像サンプルセット131を用いて参照区間Δtでの画像の統計的評価を行い、階層nでの評価値Eを出力する。本実施形態では、非特許文献2に記載された手法により評価値Eを算出する。具体的には、ある画像サンプルセット131を訓練データとし、別工程で抽出された画像サンプルセットを検証データとする。そして、二つのデータ集合に対応する二つの確率密度の比を用いて特異点を検出する。そして、評価値Eは、二つのデータ集合間の特異値とする。なお、この評価値Eを、画像サンプリング装置100を含む上位階層(アプリケーション層)に伝達し、様々な画像処理アプリケーションに使用される構成であってもよい。
図3は、サンプリング数と計算時間との関係を示す図である。図3において、横軸はサンプリング数を示し、縦軸は該当するサンプリング数の画像サンプルセットを評価するのにかかった時間を示している。一般的に、サンプリング数の増加に従い、非線形に計算時間が増加する。
図2に示した設定の場合、階層1での処理は、全フレームをサンプリングした場合でも数秒程度である。一方、階層5の参照区間Δtを全フレームにおいてサンプリングにより評価すると、例えば、1800フレームで約1088秒の計算時間が必要となる。そこで本実施形態では、このような計算時間を短縮するために、以下に説明するようにサンプリング密度分布Pを算出して、適切な画像サンプルセットを取得できるようにしている。
サンプリング密度分布算出部150は、評価値E及びサンプリングパラメータ121をもとに、上段の階層n+1の参照区間Δtn+1におけるサンプリング密度分布Pを算出する。そして、パラメータ設定部120へ出力する。本実施形態では、総階層数Nはあらかじめ階層パラメータ設定部125により設定されているため、階層nが総階層数Nに達した時点でループを脱し、次のキーフレームに移行する。
次に、サンプリング密度分布Pを具体的に算出する例について、図4を参照しながら説明する。図4において、横軸は時間を示し、縦軸は画像評価部140より算出された評価値Eとして非類似スコアを示している。また、階層パラメータ設定部125により参照区間Δt=30(フレーム数)、サンプリング数S=20と設定されているものとする。
まず、階層1は初期階層であることから、サンプリング密度分布算出部150によりサンプリング密度分布Pは算出されていない。このため、サンプリングパラメータ設定部126は、サンプリング密度分布P=0、α=1とし、予め設定されたベース密度分布Pのみをそのまま合成サンプリング密度分布Pとしてサンプリングパラメータ121を設定する。このように本実施形態では、ベース密度分布Pを一様分布として定義し、階層1のサンプリング密度分布とする。
次に、画像サンプル抽出部130は、合成サンプリング密度分布Pと、サンプリング数S(S=20)とに基づき、キーフレームtから30フレーム分の参照区間Δtからランダムサンプリングにて20枚のフレーム画像を抽出する。この場合、合成サンプリング密度分布Pはベース密度分布Pと同じであり、一様分布であるため、参照区間Δtでは均等確率なサンプリングとなる。
なお、本実施形態では、ベース密度分布Pは一様分布であるものとしたが、その他の方法によりベース密度分布Pを定義してもよい。例えば、ベース密度分布P=A(t−t)+const.とし、時間によって減衰(忘却)もしくは増加するように定義してもよい。さらには、ベース密度分布P=A(Δtn−1−Δt)+const.とし、新規に追加された参照区間の領域のみベース密度を増加させるように定義してもよい。また、ベース密度分布Pを複数用意し、選択できるようにしてもよい。
次に、画像評価部140は、抽出された20フレームの画像サンプルセット131を訓練データとする。そして、図4に示すようなキーフレームt後の30フレーム分の検証データ用参照区間411から抽出した20フレーム分の検証用の画像サンプルセットを検証データとする。なお、検証データ用参照区間411から抽出するフレーム数については、どのように決定してもよく、例えば、予め階層ごとに参照するフレーム数を決めておくようにしてもよい。そして、非特許文献2に記載されている手法を用いて非類似スコア141を算出する。本実施形態では、キーフレームtを時間軸上に移動させ、キーフレーム毎の非類似スコア(評価値E)を算出する。その結果、図4に示すように、階層1の非類似スコア431が時系列データの軌跡として算出される。
次に、サンプリング密度分布算出部150は、次段である階層2のサンプリング密度分布Pを算出する。なお、階層パラメータ設定部125により、階層2の参照区間Δt=40、サンプリング数S=30と設定されているものとする。本実施形態では、まず、キーフレームtを基準として、階層2の参照区間Δtの40フレーム分の非類似スコアを階層1の非類似スコア431から抽出し、抽出区間スコア441とする。そして、抽出区間スコア441でスコアの高いフレームには画像上で変化の大きいフレームが含まれている確率が高いため、抽出区間スコア441の波形の振幅を1に正規化して階層2のサンプリング密度分布Pとする。
このようにして算出されたサンプリング密度分布Pは、サンプリングパラメータ設定部126に入力され、前述した式(1)により合成サンプリング密度分布Pが算出される。このとき、正規化係数αは、階層2の抽出区間スコア441とベース密度分布Pとの和による波形の振幅最大値の逆数となる。
以上のように算出した合成サンプリング密度分布Pを元に上記の処理を繰り返すことによって、総階層数Nまでの画像サンプルセット131を抽出することができる。ここで、処理時間を短縮するために、階層パラメータ設定部125にて各階層のサンプリング数Sを減少させてもよい。
また、階層2からは、合成サンプリング密度分布Pは一様でない分布となる。したがって、画像サンプル抽出部130は、合成サンプリング密度分布Pにより、変化の大きいフレーム領域のサンプリング確率を高く、変化の少ないフレーム領域のサンプリング確率を低く設定する。これにより適切な画像サンプルセット131を取得することが可能になる。
また、本実施形態では、階層パラメータ設定部125において予め総階層数N、各階層の参照区間Δt、サンプリング数Sを決定する例に説明した。一方、総階層数Nを事前に設定しないようにし、隣接する階層間の参照区間の増加量を設定し、さらに終了条件を設定するようにしてもよい。この場合、終了条件としては、画像列111全体に至るまでといった条件や、非類似スコアが全域で閾値を超えない範囲といった条件などが適用可能である。
また、サンプリング数Sについては、初期値としてサンプリング数Sを設定し、順次サンプリング数Sを増加させ、非類似スコアの変化量が閾値以下になるまでサンプリング数Sを増加するようにしてもよい。これにより、各階層でのサンプリング数Sを予め設定する必要はなくなる。
以上のように本実施形態によれば、繰り返して合成サンプリング密度分布Pは算出し、その密度分布に基づいて合成サンプリング密度分布Pを算出して、この結果に基づいてサンプリングする画像を抽出するようにした。これにより、重要な画像サンプルを効率良く抽出することができ、他のアプリケーションの処理を容易にすることができる。
(第2の実施形態)
以下、本発明の第2の実施形態について図面を参照しながら説明する。なお、本実施形態に係る画像サンプリング装置は、第1の実施形態で説明した画像サンプリング装置100と基本的な構成が同様であるため、構成の説明は省略する。以下、第1の実施形態との相違点のみを説明する。
第1の実施形態との相違点は、サンプリング密度分布算出部150による計算において、前階層の非類似スコアの軌跡を用いるのではなく、前もって非類似度を評価した後にガウス分布を用いてサンプリング密度分布Pを生成する点である。以下、サンプリング密度分布算出部150においてサンプリング密度分布Pを算出する処理手順について説明する。
図5は、本実施形態におけるサンプリング密度分布算出部150の詳細な機能構成例を示すブロック図である。
図5に示すように、サンプリング密度分布算出部150は、閾値設定部510、ピーク時刻抽出部520、ガウス分布生成部530、及び混合密度分布生成部540によって構成されている。
図6は、階層1、階層2、階層3についての非類似スコアの分布を示している。
図6において、横軸は時間を示し、縦軸は非類似スコア(評価値E)を示している。ここで、キーフレームtにおいて、階層1及び階層2に対しては画像評価部140により評価値Enが既に算出されているものとする。以下、図5に示す各構成の機能とともに、階層3のサンプリング密度分布Pを算出する例について図6を参照しながら説明する。なお、参照区間Δt、Δtはそれぞれ30、40とする。
閾値設定部510は、各階層における閾値601〜603を設定する。本実施形態では予め適切な値を設定するものとする。
次に、ピーク時刻抽出部520は、非類似スコアの軌跡から閾値を超えたピークを検出し、そのピーク時刻t を検出する。ここで、nは階層を示し、mは閾値を超えたピークの番号を示す。図6に示す例では、階層1においてはピーク時刻t 〜t が検出され、階層2においてはピーク時刻t 〜t が検出される。さらに、これらのピーク時刻t に対して、各階層の参照区間Δt、tを適用して、図6に示すようにそれぞれの部分領域611〜615を設定する。
なお、図6に示す例では、階層2で検出されたピーク時刻のうち、階層1で検出されたピーク時刻t と同期するピーク時刻については除外している。これは、特に各階層の参照区間Δtの差が少ない場合は、同じピーク時刻を別階層でも検出してしまうことが多くなり、これらをすべて合成してしまうと新規で検出されたピーク時刻の成分の影響度が少なくなってしまうからである。なお、同期したピーク時刻も含めて部分領域を抽出しても構わない。
次に、ガウス分布生成部530は、対象となる部分領域611〜615に対してガウス分布を生成する。例えばピーク時刻t におけるガウス分布については、以下の式(2)に示すようにピーク時刻t を平均μとし参照区間Δtを両区間に持ち、3σ=2Δtとなるようにσを設定したガウス分布fを生成する。
Figure 2014016895
他のピーク時刻t に対しても同様に計算し、部分領域に対するガウス分布fをすべて算出する。
次に、混合密度分布生成部540は、各ピーク時刻t におけるガウス分布fを合成し、以下の式(3)により混合ガウス分布pを生成する。
Figure 2014016895
式中、πは、混合比を示す。
本実施形態では、生成した混合ガウス分布pをサンプリング密度分布Pとして出力する。以後の処理は、第1の実施形態と同様となる。
(第3の実施形態)
以下、本発明の第3の実施形態について説明する。なお、本実施形態に係る画像サンプリング装置は、第1の実施形態で説明した画像サンプリング装置100と基本的な構成が同様であるため、構成の説明は省略する。以下、第1の実施形態との相違点のみを説明する。
第1の実施形態との相違点は、サンプリング密度分布算出部150による計算において、前階層の非類似スコアの軌跡を用いるのではなく、非類似度の高い領域の参照領域をそのままサンプリング密度分布として用いる点である。本実施形態では、サンプリング密度分布算出部150において、サンプリング密度分布Pを算出する別の例について説明する。
第2の実施形態では、ガウス分布を用いてサンプリング密度分布Pを算出したが、部分領域611〜615に対して、幅を階層の参照区間Δtに設定し、高さを閾値からの突出割合の比による矩形領域fとして設定してもよい。そして、それぞれの矩形領域を合成することによって混合密度分布を生成し、該当領域内を均等にサンプリングすることが可能なサンプリング密度分布Pを設定することも可能である。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
110 画像入力部
120 パラメータ設定部
130 画像サンプル抽出部
140 画像評価部
150 サンプリング密度分布算出部

Claims (13)

  1. 動画像を構成する画像列を入力する入力手段と、
    前記入力手段により入力された画像列の参照区間に応じたサンプリングパラメータを設定する設定手段と、
    前記設定手段によって設定されたサンプリングパラメータに基づいて、前記画像列から複数の画像サンプルを抽出する抽出手段と、
    前記抽出手段によって抽出された画像サンプルの評価値を算出する評価手段と、
    前記評価手段によって算出された評価値を用いて、前記抽出手段によって抽出された画像サンプルの参照区間とは異なる参照区間のサンプリング密度分布を算出する算出手段とを備え、
    前記設定手段は、前記サンプリング密度分布を用いて、前記算出手段によって前記サンプリング密度分布を算出した参照区間のサンプリングパラメータを設定することを特徴とする情報抽出装置。
  2. 前記抽出手段は、参照区間ごとにそれぞれ前記画像列から複数の画像サンプルを抽出し、
    前記評価手段は、前記抽出手段によって参照区間ごとに抽出された画像サンプルの評価値を参照区間ごとに算出することを特徴とする請求項1に記載の情報抽出装置。
  3. 前記設定手段は、前記参照区間の起点となる時刻のフレームを設定することを特徴とする請求項1または2に記載の情報抽出装置。
  4. 前記設定手段は、複数の参照区間を設定することを特徴とする請求項1乃至3の何れか1項に記載の情報抽出装置。
  5. 前記設定手段は、前記抽出手段によって抽出される画像サンプルの数を設定することを特徴とする請求項1乃至4の何れか1項に記載の情報抽出装置。
  6. 前記設定手段は、前記サンプリング密度分布に加算する密度分布を設定することを特徴とする請求項1乃至5の何れか1項に記載の情報抽出装置。
  7. 前記設定手段は、前記参照区間の数を設定することを特徴とする請求項1乃至6の何れか1項に記載の情報抽出装置。
  8. 前記算出手段は、異なる参照区間の非類似度の分布からサンプリング密度分布を算出することを特徴とする請求項1乃至7の何れか1項に記載の情報抽出装置。
  9. 前記評価手段は、前記画像サンプルと、検証用の画像サンプルとの非類似度を評価値として算出することを特徴とする請求項1乃至8の何れか1項に記載の情報抽出装置。
  10. 前記算出手段は、
    前記評価値に閾値を設定する閾値設定手段と、
    サンプリング密度分布を算出する対象となる参照区間において、前記評価値が前記閾値設定手段によって設定された閾値を超えた時刻を含む区間を抽出し、前記抽出された区間の長さに基づく密度分布を重ね合わせた混合密度分布を生成する生成手段とを備え、
    前記混合密度分布を前記サンプリング密度分布とすることを特徴とする請求項1乃至8の何れか1項に記載の情報抽出装置。
  11. 前記密度分布はガウス分布であることを特徴とする請求項10に記載の情報抽出装置。
  12. 動画像を構成する画像列を入力する入力工程と、
    前記入力工程において入力された画像列の参照区間に応じたサンプリングパラメータを設定する設定工程と、
    前記設定工程において設定されたサンプリングパラメータに基づいて前記画像列から複数の画像サンプルを抽出する抽出工程と、
    前記抽出工程において抽出された画像サンプルの評価値を算出する評価工程と、
    前記評価工程において算出された評価値を用いて、前記抽出工程において抽出された画像サンプルの参照区間とは異なる参照区間のサンプリング密度分布を算出する算出工程とを備え、
    前記設定工程においては、前記サンプリング密度分布を用いて、前記算出工程において前記サンプリング密度分布を算出した参照区間のサンプリングパラメータを設定することを特徴とする情報抽出方法。
  13. 動画像を構成する画像列を入力する入力工程と、
    前記入力工程において入力された画像列の参照区間に応じたサンプリングパラメータを設定する設定工程と、
    前記設定工程において設定されたサンプリングパラメータに基づいて前記画像列から複数の画像サンプルを抽出する抽出工程と、
    前記抽出工程において抽出された画像サンプルの評価値を算出する評価工程と、
    前記評価工程において算出された評価値を用いて、前記抽出工程において抽出された画像サンプルの参照区間とは異なる参照区間のサンプリング密度分布を算出する算出工程とをコンピュータに実行させ、
    前記設定工程においては、前記サンプリング密度分布を用いて、前記算出工程において前記サンプリング密度分布を算出した参照区間のサンプリングパラメータを設定することを特徴とするプログラム。
JP2012154907A 2012-07-10 2012-07-10 情報抽出装置、情報抽出方法及びプログラム Pending JP2014016895A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012154907A JP2014016895A (ja) 2012-07-10 2012-07-10 情報抽出装置、情報抽出方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012154907A JP2014016895A (ja) 2012-07-10 2012-07-10 情報抽出装置、情報抽出方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2014016895A true JP2014016895A (ja) 2014-01-30

Family

ID=50111495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012154907A Pending JP2014016895A (ja) 2012-07-10 2012-07-10 情報抽出装置、情報抽出方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2014016895A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019512126A (ja) * 2016-02-29 2019-05-09 アリババ グループ ホウルディング リミテッド 機械学習システムをトレーニングする方法及びシステム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019512126A (ja) * 2016-02-29 2019-05-09 アリババ グループ ホウルディング リミテッド 機械学習システムをトレーニングする方法及びシステム
JP6991983B2 (ja) 2016-02-29 2022-01-14 アリババ グループ ホウルディング リミテッド 機械学習システムをトレーニングする方法及びシステム
US11720787B2 (en) 2016-02-29 2023-08-08 Alibaba Group Holding Limited Method and system for training machine learning system

Similar Documents

Publication Publication Date Title
JP6161257B2 (ja) イベント検出装置及びその方法、動作認識装置及びその方法、プログラム
US10402627B2 (en) Method and apparatus for determining identity identifier of face in face image, and terminal
Mittal et al. Sync-draw: Automatic video generation using deep recurrent attentive architectures
US20170243058A1 (en) Gait recognition method based on deep learning
US11449746B2 (en) Behavioral biometric feature extraction and verification
JP2004192637A (ja) 顔検出
CN107609149B (zh) 一种视频定位方法和装置
US10404524B2 (en) Resource and metric ranking by differential analysis
CN107545904B (zh) 一种音频检测方法及装置
Bayer et al. A multi modal approach to gesture recognition from audio and video data
JP2010225118A (ja) 画像処理装置、方法及びプログラム
CN107808100B (zh) 针对特定测试样本的隐写分析方法
Vo et al. Abn: Agent-aware boundary networks for temporal action proposal generation
JP5192437B2 (ja) 物体領域検出装置、物体領域検出方法および物体領域検出プログラム
KR102306319B1 (ko) 포즈 추정 매핑 데이터를 생성하는 방법, 프로그램 및 컴퓨팅 장치
US10796158B2 (en) Generation of video hash
JP2009301242A (ja) 頭部候補抽出方法、頭部候補抽出装置、頭部候補抽出プログラムおよびそのプログラムを記録した記録媒体
JP2014016895A (ja) 情報抽出装置、情報抽出方法及びプログラム
US9508026B2 (en) System and a method for camera motion analysis and understanding from a video sequence
Qin et al. Micro-Expression Spotting with Face Alignment and Optical Flow
KR102339478B1 (ko) Dna 정보를 이용한 얼굴 추정 방법, 이를 수행하기 위한 기록 매체 및 장치
Amerini et al. Prana: Prnu-based technique to tell real and deepfake videos apart
Saar et al. Cross-browser testing in browserbite
Deotale et al. Optimized hybrid RNN model for human activity recognition in untrimmed video
Chun et al. 3D human pose estimation from RGB-D images using deep learning method