JPH1084525A - ビデオに索引をつける方法 - Google Patents

ビデオに索引をつける方法

Info

Publication number
JPH1084525A
JPH1084525A JP9037015A JP3701597A JPH1084525A JP H1084525 A JPH1084525 A JP H1084525A JP 9037015 A JP9037015 A JP 9037015A JP 3701597 A JP3701597 A JP 3701597A JP H1084525 A JPH1084525 A JP H1084525A
Authority
JP
Japan
Prior art keywords
video
motion
sequence
objects
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9037015A
Other languages
English (en)
Inventor
Jonathan D Courtney
ディー.コートネイ ジョナサン
Dinesh R Nair
アール.ネア ディネシュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Texas Instruments Inc
Original Assignee
Texas Instruments Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Texas Instruments Inc filed Critical Texas Instruments Inc
Publication of JPH1084525A publication Critical patent/JPH1084525A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/786Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using motion, e.g. object motion or camera motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/179Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scene or a shot
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/87Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving scene cut or scene change detection in combination with video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Library & Information Science (AREA)
  • Signal Processing (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

(57)【要約】 【課題】 物体の動きから、内容に基づく自動的なビデ
オ索引を付ける。 【解決手段】 監視カメラ11からのビデオ内の動く物
体は、動きセグメント分割装置21により、動きセグメ
ント分割方法を用いてビデオ・シーケンス内で検出され
る。物体が、物体追跡装置22にあるセグメント分割さ
れたデータを通じて追跡される。物体並びにその動きを
記述する注釈を付したグラフの形で、ビデオの記号表示
が発生される。動き解析装置23が物体を追跡した結果
を解析し、幾つかの事象を記述する索引をグラフの動き
に注釈として付ける。その後、物体の出現/消滅、置く
こと/取り去ること、入ってくること/出てゆくこと及
び動き/静止のような関心のある事象を確認する為の規
則に基づいた分類方式を用いて、索引が付けられる。空
間−時間的な質問並びに事象及び物体に基づく質問によ
って定められたビデオのクリップが呼出されて、所望の
ビデオを見せる。

Description

【発明の詳細な説明】関連出願との関係
【0001】この出願は、この出願と同日に出願された
発明者ジョナサン・コートニー他の継続中の米国特許出
願番号 (出願人控え番号TI−22548)、発
明の名称「TV及びIRデータに於ける画面の変化の解
析の為の物体検出方法及び装置」と関連を有する。この
出願をここで引用する。
【0002】
【産業上の利用分野】この発明は例えば監視に使われる
動きの事象の検出に関する。
【0003】
【従来の技術および課題】ビデオ・オン・デマンド及び
ディジタル・ライブラリー・システムに対する商業的な
見込みを含めたマルチメディア技術の進歩により、最
近、画像内容に基づくビデオ解析に関心が持たれてい
る。ビデオ・データは、マルチメディア・システムのユ
ーザに豊富な情報を提供する。しかし、これはテキスト
のような他のデータ程、操作が容易ではない。生のビデ
オ・データは、マルチメディア・システムのユーザがそ
の内容を解析する事が出来るようにする為の直接的な
「つかみどころ」が全くない。ビデオ・データに、その
意味論的な内容を記述するシンボル情報を注釈として付
ければ、単に通して再生するよりも、解析が容易にな
る。
【0004】ビデオ・データは、マルチメディア情報シ
ステムに対し、テキストでは起らない独特の問題を生ず
る。テキスト・データは、人間が普通に発し且つ構成す
る話し言葉を記号によって抽象したものである。これに
対して、ビデオは可視情報を直接的に記録したものであ
る。生の最も普通の形では、ビデオ・データは殆ど人間
が決めた構造を持たず、その為、マルチメディア・シス
テム・ユーザがその内容を解析する事が出来るようにす
る為の直接的な「つかみどころ」が全くない。
【0005】例えば、オンラインの映画の脚本(テキス
ト・データ)及びディジタル化された映画(ビデオ及び
オーディオ・データ)を考える。ある人が脚本の解析を
していて、テキスト中の「馬」という言葉が出てくる画
面を捜すことに関心を持った場合、色々なテキスト探索
アルゴリズムを用いて、この記号が出てくるあらゆる場
面を希望する通りにつきとめる事が出来る。このような
解析はオンラインのテキスト・データベースでは普通で
ある。しかし、その人が、ディジタル化された映画の中
で、馬が現われる全ての場面を探索する事に関心を持っ
た場合、そのタスクはずっと困難である。人間が何らか
のビデオ・データの予備処理をしなければ、それに基づ
いて探索する為の記号となるキーが無い。コンピュータ
がこの探索を助けるとしても、コンピュータはビデオ・
データ自身の意味論的な内容を解析しなければならな
い。こういう能力がなければ、マルチメディア・システ
ム・ユーザが利用し得る情報は著しく減少する。
【0006】従って、ビデオ解析の多くの研究は、意味
論的な内容に基づく探索及び検索方式に集中している。
この明細書で言う「ビデオに索引を付ける」という言葉
は、効率良く再生する為に、ビデオ・データ内の重要な
フレーム又は物体にマークを付ける過程を指す。索引を
付けたビデオ・シーケンスがあれば、ユーザは、そのシ
ーケンスを普通の直列の形で再生する事が出来るだけで
なく、再生しながら、関心がある点迄「飛越し」をする
事も出来る。索引を付ける普通の方式は、場面のカット
を検出して、ビデオ・データの切れ目を決定する事であ
る。マルチメディア・システムズ誌、1,10−28
(1993年)所載のH.ザング、A.カンカンハリ及
びシュテフェンW.スモリアーの論文「全体的に動きの
あるビデオの自動的な区切り」を参照されたい。カメラ
(即ち視点)の動きに基づいて索引を付ける事も行なわ
れている。編集者ペトロス・マラゴスのビジュアル・コ
ミュニケーションズ・アンド・イメージ・プロセシング
誌SPIE 1818,1552−1530(1992
年)掲載のA.アクツ、Y.トノムラ、H.ハシモト及
びY.オオバの論文「動きベクトルを用いたビデオ索引
方法」参照。また、物体の動きに基づいて索引を付ける
事については、Proc. SPIE 1662,35
−46(1992年)のイメージ・ストーリッジ・アン
ド・リトリーバル・システムズ掲載のM.イオカ及び
M.クロカワの論文「動きの解析に基づく画像のシーケ
ンスを検索する方法」、及びProc. SPIE 1
908,25−36(1993年)の編集者ウェイン・
ニブラックのストーリッジ・アンド・リトリーバル・フ
ォー・イメージ・アンド・ビデオ・データベース掲載の
S.Y.リー及びH.M.カオーの論文「動く物体及び
軌道に基づいてビデオに索引を付ける一方法」参照。場
面のカットの検出を通じて見つけられた切れ目を使っ
て、他の研究者は、ビデオ・シーケンスの論理的な構成
を解析する為の階層形のセグメント分割を追及してい
る。これについてはIEEEコンピュータ・グラフィッ
クス・アンド・アプリケーションズ誌、67−74(1
991年)掲載のG.ダベンポート、T.スミス及び
N.ピンシーバーの論文「マルチメディア用の映画の初
歩」、Proc. SPIE 1818,1194−1
205(1992年)のペトロス・マラゴスを編集者と
するビジュアル・コミュニケーションズ・アンド・イメ
ージ・プロセシング掲載のM.シバタの論文「ビデオ・
シーケンスに対する時間的セグメント分割方法」、Pr
oc. SPIE 1908,13−24(1993
年)のウェイン・ニブラックを編集者とするストーリッ
ジ・アンド・リトリーバル・フォー・イメージ・アンド
・ビデオ・データベース掲載のD.スワンバーグ、C−
F.シュー及びR.ジェインの論文「ビデオ・データベ
ースに於ける知識を案内とする語句解剖」を参照された
い。テキストが文、段落及び章に構成されるのと同じよ
うに、これらの方式の目標は、ビデオのサブ・シーケン
スの階層形のグループ分けを決定する事である。この構
造的な情報をセグメント分割されたサブ・シーケンスの
内容の抽出と組合せると、マルチメディア・システムの
ユーザには、ビデオ・データの上から下に見た図が与え
られる。さらに詳しい事については、プロシーディング
ズ・オブ・ACMインターナショナル・コンファレンス
・オン・マルチメディア(1994年)掲載のF.アー
マン、R.デポミアー、A.スー及びM.Y.チューの
論文「ビデオ・シーケンスの内容に基づく拾い読み」を
参照されたい。
【0007】閉回路テレビ(CCTV)システムは、保
安に関係する人々に、屋内及び屋外の両方の領域に於け
る活動に関する豊富な情報を提供する。しかし、ビデオ
・データの解析を自動化する又は助けるような道具は殆
ど存在しない。その為、大抵の保安用のカメラからの情
報は利用の仕方が不充分である。
【0008】典型的には、保安装置は、ビデオをモニタ
に表示して、保安に関係する人員が同時に見ると共に、
又は、後の再生の為にこのデータを時間経過形VCR装
置に記録する事により、ビデオ・カメラの出力を処理す
る。この方式には重大な制約がある。
【0009】視覚心理の研究家は、ビデオ・カメラの監
視というような作業で人間が処理し得る可視情報の分量
は限られていることを示している。ある時間が経つと、
モニタに於ける視覚的な活動が見過ごされやすい。幾つ
かのビデオ・カメラからの出力を見なければならない
時、監視が有効である為には更に負担がかかる。
【0010】時間経過形VCRは、解像度、毎秒フレー
ム数及び記録の長さの点で、記憶し得るデータの量が限
られている。こういう装置を連続的に使うには、装置の
頻繁な保守及び修理を必要とする。
【0011】いずれの場合も、ビデオ情報は構成がな
く、索引が付いていない。ビデオ・ストリーム内の関心
のある可視的な事象をつきとめる為の効率の良い手段が
ないと、利用し得る全てのビデオ・カメラからの出力を
保安用の人員が監視したり記録したりするのはコスト効
果がない。
【0012】ビデオの監視を助ける為に利用し得る道具
として最も強力なのが、ビデオ動き検出器である。この
装置は、ビデオ・ストリーム内の可視的な動きを検出
し、活動が予め設定された閾値を越える時、警報器又は
記録装置を作動する事が出来る。しかし、現存のビデオ
動き検出器は、典型的には、ビデオ・データ内の単純な
強度変化だけを感知し、在庫品の盗難のような複雑な物
体の動作が発生した事に関しては、もっと気のきいた情
報のフィードバックをする事が出来ない。
【0013】
【課題を解決するための手段及び作用】この発明の一実
施例では、物体の動きからビデオに索引を付ける方法を
提供する。動きセグメント分割装置を用いて、ビデオ・
シーケンス内の動く物体を検出する。セグメント分割さ
れたビデオの物体が記録され、相次ぐフレームで追跡さ
れる。物体の経路及び他の物体の経路との交差を決定し
て、事象の発生を検出する。物体の出現/消滅、置くこ
と/取除くこと、入ってくること/出てゆくこと、及び
動き/静止のような関心のある事象を確認する為に索引
マークを付ける。
【0014】この発明の上記並びにその他の特徴は、以
下図面についてこの発明を詳しく説明するところから、
当業者には明らかになろう。
【0015】
【実施例】図1は、この発明の一実施例による自動ビデ
オ索引(AVI)装置10の高レベルの線図を示す。こ
の図で、データベース記憶装置15に保存するためにデ
ィジタル化された到来ビデオを処理するプログラムされ
たコンピュータを含む視覚装置13に対する入力を、カ
メラ11が供給する。この明細書で言うカメラという言
葉は、普通のテレビ(TV)カメラ又は赤外線(IR)
カメラであってよい。次に、ユーザは、空間−時間の質
問、事象や物体に基づく質問を通じて、コンピュータを
含む、データベース15に対するインターフェース17
を使って、このビデオ情報を解析する事が出来る。ユー
ザ・インターフェース17が、この質問に答えるビデオ
・シーケンスをモニター19に対して再生する。
【0016】図2は、保安監視用に見られるのと同様な
内容を持つビデオ・シーケンスからのフレームを示す。
このシーケンスでは、人が場面に入り、1枚の紙とブリ
ーフケース及び本を置き、その後出ていく。この人がそ
の後で再びこの場面に入り、ブリーフケースを取り上
げ、再び出ていく。この例のシーケンスの持続時間は約
1分間である。しかし、行動が何時間にも及ぶ事があ
る。AVIデータベース15に質問する事により、ユー
ザは、このシーケンス全体を再生せずに、前後に亘っ
て、重要な事象に飛越す事が出来る。例えば、ユーザ
が、「シーケンス内にある全ての物を置く事象を示せ」
という質問をした場合、AVI装置10は、人が、紙、
ブリーフケース及び本を置く場面を映したシーケンスに
よって応答する。図3は、この質問に応答して、AVI
装置から与えられる実際の結果を示す。この場合、当該
装置は、紙、ブリーフケース及び本を置いた所を指し、
ボックスによって、この事象に寄与する物体を目立たせ
る。ビデオ・データの処理では、AVI視覚装置13が
動きセグメント分割方式を用いて、各フレーム内の場面
の背景から、前景の物体を分割する。動きセグメント分
割方式については、コンピュータ・グラフィックス・ア
ンド・イメージプロセシング誌、18,188−201
(1982年)掲載のS.ヤラマンチリー、W.マーテ
ィン及びJ.アガーワルの論文「差分法による動く物体
の記述の抽出」、IEEEトランザクションズ・オン・
パターン・アナリシス・アンド・マシーン・インテリジ
ェンス誌、6,624−629(1984年)掲載の
R.ジェインの論文「動く観察者によって得られたフレ
ームシーケンスのセグメント分割」、IEEEワークシ
ョップ・オン・ビジュアル・モーション誌、325−3
32(1991年)掲載のA.シオ及びJ.スクランス
キーの論文「動く人のセグメント分割」、及び各フレー
ム内の場面の背景から前景の物体をセグメント分割する
為の、ニュージャージー州エングルウッド・クリフスの
プレンティスフォール社から出版されたB.バラード及
びC.ブラウンの著書「コンピュータ・ビジョン」を参
照されたい。次に、セグメント分割されたビデオを解析
して、前景の物体及びその動きの記号表示を作る。ビデ
オ内容のこの記号による記録がビデオ「メタ情報」(図
4参照)と呼ばれる。図4は、ビデオ・データ・フレー
ム、対応する動きのセグメント分割、及び対応するメタ
情報の進行を示す。このメタ情報が、後で索引して探索
するのに適切な注釈を付けられ、方向付けられたグラフ
の形で、データベースに記憶される。ユーザ・インター
フェース17が、意味論的な内容を解析するために、生
のビデオ・データではなく、この情報に対して作用す
る。
【0017】視覚装置13が、このメタ情報の中に、全
てのビデオ・フレームにある各々の物体の寸法、形、位
置、時間の刻印及び画像を記録する。これは、相次ぐビ
デオ・フレームに亘って各々の物体を追跡し、各々のフ
レームに於ける瞬時速度を推定し、物体の経路並びに他
の物体の経路とのその交差を決定する。その後、視覚装
置が、その経路上で測定された速度に基づいて、物体を
動いている又は不動と分類する。
【0018】最後に、視覚装置13がメタ情報を走査
し、物体の出現/消滅、置くこと/取除くこと、入って
くること/出てゆくこと、並びに動き/静止というよう
な関心のある8個の事象が発生するたびに、索引マーク
を付ける。この索引動作は、メタ情報に記録された物体
の動きに基づく自得学習法を使って行なわれる。例え
ば、動く物体が不動の物体を「離す」と、その結果は
「置く」事象になる。動く物体が不動の物体と交差し、
その後それを取り除くと、その結果は「取り除く」事象
になる。
【0019】この装置は、視覚装置の出力、即ち、ビデ
オ・データ、動きのセグメント分割及びメタ情報を、ユ
ーザ・インターフェース17を通じて検索する為に、デ
ータベース15に記憶する。インターフェースは、ユー
ザが、関心のあるビデオ・シーケンスを検索し、それを
前向き又は後向きに再生し、個別のフレームで停止する
事が出来るようにする。更に、ユーザは、空間−時間の
パラメータ、事象に基づくパラメータ及び物体に基づく
パラメータに基づいて、ビデオ・シーケンスに対する質
問を特定する事が出来る。
【0020】例えば、ユーザは場面内のある領域を選択
し、「午前8時と午前9時の間に、場面のこの領域から
取り除かれた全ての物体を見せて下さい」という質問を
特定する事が出来る。この場合、ユーザ・インターフェ
ースは、午前8時及び午前9時の間の時間の刻印を持つ
物体のビデオ・メタ情報を探索し、その後、この1組を
フィルターにかけて、特定された領域内にあって、「取
り除く」事象のタグが付けられた物体を求める。その結
果、ユーザの質問に答える1組の物体が得られる。この
1組から、質問の結果を目立たたせる1組のビデオ・
「クリップ」を集める。ユーザは、関心のあるクリップ
を選択し、前と同じように再生又は質問を使って、更に
ビデオ解析を進める事が出来る。
【0021】次に、この明細書の以下の部分で使われる
用語及び記号を説明する。シーケンスSはN個のフレー
ムのある順序の集合であり、S={F0
1 ,...,FN-1 }と記される。ここでFn はこの
シーケンス内のフレーム番号nである。
【0022】クリップは4重子C=(S,f,s,l)
であり、ここでSはN個のフレームを持つシーケンスで
あり、f,s及びlは、0≦f≦s≦l≦N−1となる
ようなフレーム番号である。ここでFf およびFl が、
クリップ内の最初及び最後の有効なフレームであり、F
s が現在のフレームである。従って、クリップは、「関
心のあるフレーム」を示す状態変数を持つサブ・シーケ
ンスを特定する。
【0023】フレームFは、時間の刻印tを注釈として
付けた画像Iである。従って、フレーム番号nは対Fn
=(In ,tn )によって表わされる。
【0024】画像Iは画素のr×c個のアレイである。
記号I(i,j)はIの中の座標(行i,列j)にある
画素を示し、i=0,...,r−1、およびj=
0,...,c−1である。ここでの説明では、画素は
0と255の間の強度値を持つと仮定する。
【0025】図5はAVI装置を詳しく示す。動きセグ
メント分割装置21、物体追跡装置22、動き解析装置
23、記録装置24及び圧縮器25が図1の視覚装置1
3を構成する事に注意されたい。同様に、質問エンジン
27、グラフ式ユーザ・インターフェース28、再生装
置29及び圧縮解除モジュール30がユーザ・インター
フェース17を構成する。以下、これらの各々の部品を
詳しく説明する。
【0026】AVI装置の現在の構成は、実時間処理で
はなく、バッチ処理を支援する。従って、フレームは、
更に処理が行なわれる前に、一時記憶区域20内にディ
ジタル化される。実時間形の構成は、一時記憶装置20
を側路して、ビデオをパイプライン式に処理する。
【0027】図6は動きセグメント分割装置を更に詳し
く示す。シーケンス内の各々のフレームFn に対し、動
きセグメント分割装置21は次のようにセグメント分割
された画像Cn を計算する。
【0028】
【数1】Cn =ccomps(Th ・k)
【0029】Th はhに於ける画像In 及びI0 の差の
絶対値に閾値を設けることによって得られる2進画像で
あり、Th ・kは構成要素kを用いたTh に対する形態
学的な閉じ操作であり、関数ccomps( )は連結
された構成要素の解析を行ない、この結果、画像Th
k中の各々の連結された領域に対する独特なラベルが得
られる。画像Th は次のように定義される。
【0030】
【数2】
【0031】これがTh 内にある全ての画素(i,j)
に対して成立し、Dn はIn 及びI0 の差分画像であっ
【0032】
【数3】 Dn (i,j)=In (i,j)−I0 (i,j) である。(赤外線カメラから得られるような)雑音の多
いデータに対しては、画像Dn はローパスフィルタによ
って平滑して、更に一貫性のある差分画像を作る事が出
来る。最後に操作a・kは次のように定義される。
【0033】
【数4】 として定義され、
【外1】 は形態学的な拡張演算子であり、Θは形態学的な侵食演
算子である。
【0034】図7はこの過程の一例を示す。図7aは基
準画像I0 であり、図7bは画像In であり、図7cは
絶対的な差|Dn =In −I0 |であり、図7dは閾値
作用にかけた画像Th であり、これは像内の動きのある
領域を目立たせ、図7eは形態学的な閉じ操作の結果で
あって、小さな領域を一緒に結合して、滑らかな形の物
体にすると共に、班点ノイズを取除き、図7fは領域1
−4の様な独特のラベルを各々の検出された物体に割当
てる連結された構成要素の解析結果である。この結果、
動きセグメント分割装置の出力であるCn になる。
【0035】この方式が処理の為に「基準画像」を使う
事に注意されたい。これは、このシーケンスからの公称
上最初の画像I0 である。多くの用途では、基準画像が
利用し得ると仮定する事は不合理ではない。場面の中の
動きが制限されている時、ビデオで捕えるのは単純に固
定視点カメラから開始される。次に、他の用途ではこの
仮定が成立しない事がある若干の理由を述べる。
【0036】1.長いビデオ・シーケンスでは、特に屋
外の場面では、ゆっくりとした照明の変化により、基準
フレームが「旧式」になる原因になる事がある。その場
合、相次ぐビデオ・フレームの累算的な差を使う更に手
のこんだ方式を用いなければならない。
【0037】2.視点はカメラの動きの為に変化する事
がある。この場合、動く背景を場面から「減算」する為
に、カメラの動きの補償をしなければならない。
【0038】3.ある物体が基準フレームの中に存在し
ていて、シーケンスの間に動く事がある。これによっ
て、物体が場面の中に新しく登場した不動の物体である
かのように、動きセグメント分割過程によって物体によ
って露出した背景領域が正しくなく検出される事があ
る。
【0039】この問題3に対する直接的な解決策は、動
きセグメント分割過程によって検出された動かない領域
に試験を適用して、所定の領域が(1)前景に存在する
不動の物体、又は(2)基準像内に存在する前景の物体
によって露出した背景の何れの結果であるかを判定する
事である。
【0040】テレビ・カメラからのビデオ・データの場
合、この試験は次の観測に基づいて実施される。画像I
n のセグメント分割によって検出された領域が、基準画
像内に存在する物体の動きに由る(即ち、「露出された
背景」による)場合、セグメント分割された領域の境界
が、I0 で検出された強度の縁と合う確率が高い。領域
が現在の画像内に物体が存在する事に由る場合、領域の
境界がIn の強度の縁と合う確率が高い。この試験は、
現在の画像及び基準画像に縁検出演算子を適用し、Cn
のセグメント分割された領域に境界が一致する画素があ
るかどうかを検査する事によって実施される(198
2、ニュージャージー州エングロート・クリフス所在の
プレンティスホール社から出版されたD.バラード及び
C.ブラウンの著書「コンピュータ・ビジョン」参
照)。
【0041】IRカメラからのビデオ・データの場合、
熱の拡散及び像のぼけの為、前景の物体は容易に検出し
得る縁を持たない事がある。しかし、あるカメラからの
データでは、画像の光学−機械的な鮮鋭化によって物体
がコントラストを作るかさ(halo)を示す。198
2年ニューヨーク州ニューヨーク所在のアカデミック・
プレス社から出版されたA.ローゼンフェルト及びA.
カクの著書「ディジタル映像処理」第2版、第1巻参
照。この為、この試験は、2つの画像にある関心のある
領域内の画素強度の分散を比較する事によって実施する
事が出来る。ある背景領域は一定の画素強度を示す傾向
があるから、前景の物体を含む画像では、この分散が最
大になる。
【0042】テレビ及びIRデータに於ける画面の変化
の解析を行なう為の物体検出方法が、前に引用したコー
トニー他の出願に記載されており、ここで引用する。
【0043】何れかの試験によって、問題の領域が露出
された背景によるものであるという仮説が裏付けられた
場合、物体をそれによって露出された背景領域と置換え
る事により(図8参照)、基準画像を変更する。
【0044】公知のどんな動きセグメント分割方式も完
全ではない。次に、多くの動きセグメント分割方式の典
型的な誤差を述べる。
【0045】1.真実の物体は、動きセグメント分割の
記録から一時的に消滅する。これが起るのは、物体と閉
塞されていた背景領域との間のコントラストが不十分な
場合、又は物体が部分的に「背景」構造(例えば、場面
内に存在する樹木又は柱)によって部分的に閉塞されて
いる場合である。
【0046】2.虚偽の物体が動きセグメント分割の記
録に一時的に現れる。これは、光の変動又は動く物体が
投げかける影が原因である。
【0047】3.別々の物体が一時的に一緒になる。こ
れが起るのは、典型的には、2つ又は更に多くの物体が
接近しているか、又は一方の物体が別の物体を隠す時で
ある。
【0048】4.単独の物体が2つの領域に分れ、その
後再び一緒になる。これが起るのは、物体の一部分が、
それが隠している背景に対するコントラストが不十分な
時である。
【0049】動きのセグメント分割の欠点を軽減する為
に増分的な改良を適用する代りに、AVI方式は、ビデ
オ・データの意味論的な内容に関する情報が一層容易に
利用出来る更に高いレベルでこういう問題を取上げる。
後で説明する物体追跡装置及び動き解析装置が物体軌跡
の推定値及び領域の知識を用いて、動きのセグメント分
割の不正確さを補償すると共に、こうして一層正確なビ
デオ内容の記録を作る。動きセグメント分割装置21の
出力が物体追跡装置22によって処理される。ビデオ内
の前景の物体に対応する独特なラベルを付けたP個の領
域を持つセグメント分割された像Cn があったとして、
装置は各々の領域を表わす1組の特徴を発生する。この
1組の特徴を「V物体」(ビデオ物体)と名付け、V p
n ,p=1,...,Pで表わす。V物体は、対応する
領域のラベル、面積中心、境界ボックス及び形状マスク
並びに物体速度及び追跡過程による軌跡情報を含んでい
る。
【0050】この後、V物体をセグメント分割されたビ
デオ・シーケンスの中で追跡する。V物体Vn ={V p
n ;p=1,...,P}及びVn+1 ={V q n+1 ;q
=1,...,Q}を持つセグメント分割された画像C
n 及びCn+1 があった場合、それらがフレームFn 及び
n+1 内に現われる実世界の同じ物体に対応する事をそ
れらの位置及び推定速度が示す場合、動き追跡過程がV
物体V p n 及びV q n+1 を「リンク結合」する。これ
は、V物体の位置の線形予測、並びに「互いに最も近い
隣り」の判断基準を使って、下記の手順で決定される。
【0051】1.各々のV物体V p n ∈Vn に対し、次
の式
【数5】 を使って、次のフレームに於けるその位置を予測する。
この式で、μ p n はCn+1 に於けるV p n の予測される
面積中心であり、μ p n はCn で測定されたV p n の面
積中心であり、υ p n はV p n の推定(前方)速度であ
り、tn+1 及びtn は、夫々フレームFn+1 及びFn
時間刻印である。最初、速度推定値はυ p n =(0,
0)に設定する。
【0052】2.各々のV p n ∈Vn に対し、
【外2】 に一番近い面積中心を持つ次のフレーム内のV物体を決
定する。この「一番近い隣り」をη p n と表わす。即ち
【数6】
【0053】3.Vn にある他のどのV物体もV r n+1
を最も近い隣りとして持たないような全ての対
(V p n ,η p n =V r n+1 )に対し、V r n+1 の(前
方)速度であるυ r n+1 を次のように推定し、
【数7】 それ以外の場合、υ r n+1 =(0,0)とする。
【0054】こういう工程を各々のCn ,n=0,
1,...,N−2に対して実施する。工程1及び2に
より、各々のV物体に対し、この後のフレームに於ける
最も近い隣りが見つかる。工程3により、あいまいさを
残さずに追跡する事の出来るV物体に対する速度推定値
が発生される。この情報を工程1で使って、次のフレー
ムに対するV物体の位置を予測する。
【0055】次に、逆のシーケンス、即ち、Cn ,n=
N−1,N−2,...,1に対し、工程1−3を繰返
す。この結果、逆方向に於ける、各々のV物体に対する
予測された面積中心、速度推定値及び最も近い隣りの新
しい集合が得られる。従って、V物体がこのシーケンス
内で順方向にも逆方向にも追跡される。この後、残りの
工程を実施する。
【0056】4.η s n =V r n+1 及びη r n+1 =V s
n であれば、V物体V s n 及びV r n+1 は互いに最も近
い隣りである。(ここで、η s n が順方向に見たV s n
の最も近い隣りであり、η r n+1 が逆方向に見たV r
n+1 の最も近い隣りである。)各々の対の互いに最も近
い隣り(V s n ,V r n+1 )に対し、V s n からV r
n+1 への1次リンクを作る。
【0057】5.互いに1番近い隣りのない各々のV p
n ∈Vn に対し、予測された面積中心
【外3】 が、εをある小さな距離として、η p n のε以内であれ
ば、V p n からη p n への2次リンクを作る。
【0058】6.互いに最も近い隣りのないVn+1 内の
各々のV q n+1 に対し、予測された面積中心
【外4】 がη q n+1 のε以内であれば、η q n+1 からV q n+1
の2次リンクを作る。
【0059】物体追跡手順は互いに最も近い隣りの判断
基準(工程4)を使って、高い信頼度で、フレーム毎の
V物体の軌跡を推定する。「1次」リンクを使って、互
いに最も使い隣りの対を接続して、それらが、相次ぐビ
デオ・フレームで実世界の同じ物体を表わす可能性が高
い事を示す。
【0060】工程5〜6は、より小さい信頼度で追跡さ
れるV物体を関連させるが、それらが実世界の同じ物体
から出て来たものであるかも知れない証拠を示す。この
為、これらの物体は「2次」リンクによって結合され
る。これらの工程は、前に述べたように、「分割」及び
「結合」型の動きのセグメント分割の誤差を説明する為
に必要である。
【0061】物体追跡過程の結果、V物体、並びにビデ
オ・シーケンス内の前景の物体の位置及び軌跡を表わす
方向ぎめされたグラフ(ダイグラフ)を形成する接続リ
ンクのリストが得られる。即ち、V物体は、グラフの節
であり、接続リンクは円弧である。この動きのグラフが
物体追跡装置の出力である。
【0062】図9は、1次元のフレームの仮説的なシー
ケンスに対する動きのグラフを示す。この場合、装置
は、Aで物体の出現を検出し、それをBにおけるV物体
迄追跡する。動きのセグメント分割における誤差の為、
物体がD及びEで分割され、Fで一緒になる。Gでは、
物体が閉塞の為、Cから追跡された物体と一緒になる。
これらの物体がH及びIで分れる。1次リンクが、最も
信頼性を持って追跡されたV物体を接続する。
【0063】動き解析装置23が物体追跡装置の結果を
解析し、関心のある幾つかの事象を記述する索引マーク
で、動きのグラフに注釈を付ける。この過程は2つの部
分に分れて進む。即ち、V物体のグループ分け及びV物
体の索引付けである。図10は、以下の部分で説明する
1−Dフレームの仮説的なシーケンスに対する一例の動
きのグラフを示す。
【0064】最初に、動き解析装置が、ビデオ・データ
の中での物体の経路を表わす構造にV物体を階層的にグ
ループ分けする。1993年にニューヨーク州のマック
グロウヒル社から出版されたG.チャートランド及び
O.エラーマンの著書「グラフ理論の応用とアルゴリズ
ム」に記載されたグラフ理論の用語を用いると、この為
には5つのグループ分けが定義される。
【0065】ステムM={Vi :i=1,2,...,
M }は、下記の全ての条件を満たす、2次リンクを含
まない2つ又は更に多くのV物体の最大寸法の方向ぎめ
された経路(ダイパス)である。
【0066】 アウトデグリー(Vi )≦1 (1≦i<NB に対して) インデグリー (Vi )≦1 (1<i≦NB に対して) 更に
【数8】 又は
【数9】 μ1 ≠μ2 ≠...≠μNM (3) ここでμi はV物体Vi ∈Mの面積中心である。
【0067】従って、ステムは、2つ又は更に多くのフ
レームの中での不動の物体の単純な軌跡を表わす。図1
1は、図10からのV物体が文字A乃至Jを持つ別々の
ステムに属するようにラベルを付けている。
【0068】ステムを使って、実世界の物体の「状
態」、即ち、それらが動いているか不動であるかを決定
する。式(2)が成立すれば、ステムは不動と分類さ
れ、式(3)が成立すれば、ステムは動いていると分類
される。図11は不動のステムを取上げており、残りは
動いている。
【0069】ブランチB={Vi :i=1,
2,...,NB }は、アウトデグリー(Vi)≦1
(1≦i<NB に対して)、並びにインデグリー
(Vi )≦1(1<i≦NB に対して)であるような、
2次リンクを持たない2つ又は更に多くのV物体の最大
寸法のダイパスである。図12は、ブランチに属するV
物体に文字K乃至Sのラベルを付けてある。ブランチ
は、一連のフレームの中での物体の信頼性の高い軌跡の
推定値を表わす。ブランチが1個の不動のステムだけで
構成される場合、それは不動と分類される。その他の場
合、動いていると分類される。図12のブランチM及び
P(書込みのあるもの)は不動であり、残りが動いてい
る。
【0070】トレイルLは2次リンクを持たない2つ又
は更に多くのV物体の最大寸法のダイパスである。この
グループ分けは、互いに最も近い隣りという判断基準を
使って、物体追跡段階での物体の軌跡の最善の推定値を
表わす。図13はトレイルに属するV物体に文字T乃至
Yのラベルを付けてある。
【0071】トレイル及びそれが含むV物体は、その中
に含まれる全てのブランチが不動であれば、不動と分類
され、その中に含まれる全てのブランチが動いていれ
ば、動いていると分類される。その他の場合、トレイル
は未知と分類される。図13のトレイルV及びXは不動
であり、残りは動いている。
【0072】トラックK={L1 ,G1 ,...,L
NK-1,GNK-1,LNK}は、トレイル{Li :1≦i≦N
K }を含んでいて、ダイパス{Gi :1≦i<NK }を
接続している最大寸法のダイパスである。各々のGi∈
Kに対し、 H={V l i ,Gi ,V 1 i+1
【0073】(V l i はLi の中の最後のV物体であ
り、V 1 i+1 はLi+1 の中の最初のV物体である)とな
るようなダイパスが存在していなければならない。この
為、全てのVj ∈Hは次の条件を満たす。
【0074】
【数10】
【0075】ここでμ l i はV l i の面積中心であり、
υ l i はV l i の前向きの速度であり、(tj
l i )はVj 及びV l i を含むフレームの間の時間差
であり、μjはVj を面積中心である。従って、式
(4)は、V物体V l i の推定軌跡が経路H上の全ての
j と交差しなければならない事を定めている。
【0076】トラックは、シーケンス内で動く物体によ
って1回又は更に多くの回数だけ、閉塞作用を受けたか
もしれない物体の軌跡推定値を表わす。動き解析装置が
式(4)を使って、それが閉塞されているフレームで物
体を追いかけようとする。図14は、トラックに属する
V物体に文字α、β、χ、δ及びεのラベルを付けてい
る。トラック“χ”がトレイルV及びXを結合している
事に注意されたい。
【0077】トラック及びその中に含まれるV物体は、
その中に含まれる全てのトレイルが不動であれば、不動
と分類され、その中に含まれる全てのトレイルが動いて
いれば、動いていると分類される。そうでない場合、ト
ラックは未知と分類される。図14のトラック“χ”は
不動であり、残りのトラックは動いている。
【0078】トレースは、V物体の最大寸法の接続され
たサブダイグラフである。トレースはある物体及びそれ
が交差する全ての物体の完全な軌跡を表わす。即ち、図
10の動きのグラフは2つのトレースを含む。1つのト
レースはF2 からF7 迄延び、残りのV物体が2番目の
トレースを形成する。図15では、これらのトレースに
あるV物体にそれぞれ1及び2のラベルを付けてある。
【0079】前段のグループ分けは階層形である事、即
ち、悉くのトレースEに対し、少なくとも1つのトラッ
クK、トレイルL、ブランチB及びステムMがあって、
E⊇K⊇L⊇B⊇Mになる事に注意されたい。更に、悉
くのV物体は丁度1つのトレースだけの一員である。
【0080】動き解析装置が、物体追跡装置によって発
生された動きのグラフを走査し、V物体をステム、ブラ
ンチ、トレイル、トラック及びトレースにグループ分け
する。この為、これらの4つの定義を使って、動きのグ
ラフの種々の部分における物体の軌跡を特徴づける。こ
の後、この情報を使って、その物体の動きの内容に従っ
て、ビデオに索引を付ける。
【0081】ビデオ・シーケンス内にある種々の動きの
事象を選定する為に関心のある8つの事象が定義され
る。
【0082】出現−物体が場面に出てくる。 消滅−物体が画面から消える。 入ってくること−動く物体が画面に入ってくる。 出てゆくこと−動く物体が画面から出てゆく。 置くこと−動かない物体が画面に加えられる。 取り除くこと−動かない物体が画面から取り除かれる。 動き−静止している物体が動き始める。 静止−動いている物体が停止する。
【0083】これらの8つの事象は、多数の動く物体を
含む多くのシーケンスの解析を助ける位に、ビデオ索引
装置にとって十分広義である。例えば、保安監視の用途
で、在庫の箱、道具、コンピュータ等の貴重な物体を盗
難(即ち取り除く事)に対して監視する事が出来る。同
様に、自動車の交通パターン(例えば入ってくること/
出てゆくこと及び動き/静止)を解析する事が出来、又
は消費者の買物パターン(例えば、動き/静止及び取り
去ること)を記録する事が出来る。
【0084】V物体のグループ分けの過程が完了した
後、動き解析装置は、ビデオ・シーケンス内のこういう
8つの事象を確認するのに必要な全ての意味論的な情報
を持っている。グラフ内の各々のV物体Vに対し、次の
規則が適用される。
【0085】1.トラック内の最初のV物体(即ち、
「頭」)が動いていて、インデグリー(V)>0であれ
ば、Vに出現事象を選定する索引マークを付ける。
【0086】2.トラックの頭のVが不動であり、イン
デグリー(V)=0であれば、Vに出現事象を選定する
索引マークを付ける。
【0087】3.トラック内の最後のV物体(即ち
「尾」)が動いていて、アウトデグリー(V)>0であ
れば、Vに消滅の索引マークを付ける。
【0088】4.トラックの尾であるVが不動で、アウ
トデグリー(V)=0であれば、Vに消滅索引マークを
付ける。
【0089】5.Vが不動ではない(即ち、動いている
か未知であり)、トラックの頭であり、インデグリー
(V)=0である場合、Vに入って来たことの索引マー
クを付ける。
【0090】6.Vが不動ではなく、トラックの尾であ
りアウトデグリー(V)=0であれば、Vに出てゆくこ
との索引マークを付ける。
【0091】7.Vが不動であり、トラックの頭であ
り、インデグリー(V)=1であれば、Vに置く事の索
引マークを付ける。
【0092】8.Vが不動であり、トラックの尾であ
り、アウトデグリー(V)=1であれば、Vに取去るこ
との索引マークを付ける。
【0093】規則1〜8はトラックのグループ分けを使
って、個別の物体の軌跡の初めと終りにあるビデオに索
引を付ける。しかし、規則7及び8は、画面に置かれた
又はそこから取り除かれた物体に対してだけ適用される
事に注意されたい。これは、置く又は取り去る事象を起
るようにしたV物体に索引を付けるものではない。この
目的の為、別の2つの事象を定義する。
【0094】置き手−動く物体が動かない物体を画面に
加える。 取り去り手−動く物体が動かない物体を画面から取り去
る。
【0095】更に2つ又は更に多くの規則を用いる。
【0096】9.Vが置くことという索引を持つV物体
に隣接している場合、Vに置き手の索引マークを付け
る。
【0097】10.Vが取り去ることの索引を持つV物
体に隣接している場合、Vに取り去り手の索引マークを
付ける。
【0098】規則9〜10は、置くこと/取り去ること
の事象の主客の区別を付ける。この区別は事象の主客を
区別しなければならない時にだけ必要である。他の場
合、置き手/取り去り手の事象は置くこと/取り去るこ
との事象と同一に取扱われる。
【0099】最後に、索引過程は、開始及び停止事象を
説明する規則を適用する。
【0100】11.Vが不動のステムMi の尾であると
共に、|M1 |≧hM 並びに|Mj|≧hM であるよう
な動くステムMj の頭である場合、Vに動きの索引マー
クを付ける。ここでhM は考えているステムの寸法の下
限である。
【0101】12.Vが動くステムMi の尾であると共
に、|M1 |≧hM 及び|Mj |≧hM であるような不
動のステムMj の頭である場合、Vに静止の索引マーク
を付ける。
【0102】動き解析装置23の出力が、ビデオ・スト
リームにある関心のある事象を表わす、物体に基づく索
引マークを注釈として付けた前景の物体の動きを記述す
る方向ぎめされたグラフである。この為、動き解析装置
23は、動きセグメント分割データから、ビデオ内の前
景の物体の動作及び相互作用の記号による抽象を発生す
る。この方式は、他の方法では不可能な、ビデオ・シー
ケンスの内容に基づく航行及び解析を可能にする。
【0103】図16は、図10の例の動きのグラフに全
ての索引規則を適用した場合を示してある。フレームF
8 にある不動の物体が閉塞されるけれども、この方式は
夫々フレームF3 及びF12に一対の「置くこと」及び
「取去ること」の索引を正しく付けている事に注意され
たい。
【0104】記録装置が、後で検索するために、ビデオ
・ストリーム及びメタ情報をビデオ・データベースに書
き込む。メタ情報の記録は、物体向けの表示に適してい
るので、テキサス・インスツルメンツ社で開発されたA
RPA開放物体向けデータベース(OOBB)を使って
実験した。(IEEEコンピュータ誌74〜82頁、1
992年10月号所載のデイビットL.ウエルズ他の論
文「開放物体向けデータベース管理装置の構成」参
照。) 開放OOBB、物体向けの形で、メタ情報の直
接的な記憶及び検索が出来るようにする。入力ビデオ・
データも、フレーム毎に開放OOBBに記憶する事が出
来る。しかし、OOBB内の物体を参照する「フラッ
ト」なファイルに、到来ビデオを単に記録する方が更に
効率が良いことが分った。
【0105】随意選択により、ビデオ・メタ情報を使っ
て、記憶効率を最大にする為に、ビデオ・データを圧縮
する事が出来る。各々のV物体が、動きのセグメント分
割から得られた実世界の物体の形状マスクを記憶してい
る事を前に述べた。動きセグメント分割過程はビデオ内
の突出した物体の動きを補捉するから、ビデオ・シーケ
ンス全体ではなく、この情報をビデオ・データベースに
記録する事により、入力データを実質的に圧縮する事が
出来る。
【0106】この場合、基準フレームF0 を圧縮した形
で記録し、その為にJPEG静止映像圧縮基準を使う事
が出来る。その場合、基準フレームに対して個別の物体
を記述する情報が記録される。即ち、V物体の位置及び
形とそれに対応する像データである。このマスクは、ラ
ンレングスで符号化するのが効率が良い。その時、V物
体の像データはやはりJPEGで符号化する。再生する
時、装置は最初にF0を復号し、その後、この後の各々
のフレームに対してV物体の像を復号し、V物体領域マ
スクを使って、これらを基準フレームにマッピングす
る。このような記憶方式を使うと、30乃至250対1
の圧縮比で、相当量のビデオを普通の磁気ディスクに記
憶する事が出来る。
【0107】グラフ式ユーザ・インターフェスで発生さ
れた質問に応答して、AVI質問エンジンがデータベー
スからビデオ・データを検索する。有効な質問Yは次の
形を取る。
【0108】
【数11】Y=(C,T,V,R,E)
【0109】ここでCはビデオ・クリップであり、T=
(ti ,tj )であって、クリップ内の時間区分を特定
し、Vはクリップ・メタ情報内のV物体であり、Rは視
野内の空間的な領域であり、Eは物体の動きの事象であ
る。
【0110】クリップCは、質問によって処理すべきビ
デオのサブ・シーケンスを特定し、T,V,R及びEの
(随意選択の)値が質問の範囲を定める。この形式を使
うと、AVI装置のユーザは、「午前8時及び午前9時
の間の画面のこの領域から取り去られた物体が発生した
ら、それを見つけて下さい」という要請をする事が出来
る。この為、質問エンジンが、T,V,R及びEを満た
すような、C内の全てのビデオの小順序を見つける事に
より、Yを処理する。
【0111】所定の質問を処理する時、質問エンジン
が、ビデオ・データベースから、クリップCに対応する
V物体のグラフGを検索し、次の工程を実施する。
【0112】1.質問にT=(ti ,tj )が特定され
ていれば、GをフレームFi からFj に亘る部分的なグ
ラフに切り取る。
【0113】2.Vが特定されていれば、GをVを含む
トレースだけを含むように更に切り取る。
【0114】3.Vがトラックに属する場合、Vを含む
トラックだけを含むようにGを更に切り取る。
【0115】4.Rが特定されていれば、その形状マス
クが特定された空間領域と交差するようなV物体だけを
含むようにGを切り取る。
【0116】5.Eが特定されていれば、Eに合う事象
の索引を持つV物体だけを含むようにGを切り取る。
【0117】6.Eが特定されていなければ、インデグ
リー(V)=0を持つV物体V、即ちG内のソースの節
だけを含むようにGを切り取る。これによってV,T及
びRの条件に合う実世界の物体が最初に発生した時だけ
を含むように結果が縮められる。即ち、工程1は、質問
の時間的な拘束を満たし、工程2及び3は、探索を動き
のグラフ内でのVの最も信頼性のある経路に制限する事
により、物体に基づく制約を満たし、工程4はV物体に
フィルター作用をかけて、空間的な制約を満たし、工程
5及び6はV物体をフィルター作用にかけて、特定され
た事象に合うようにする。この結果得られたグラフG
は、質問の全ての制約を満たすV物体だけを含む。
【0118】図17は、図10のV物体のグラフに適用
された質問Y=(C,T,V,R,E)、即ち、「期間
Tの間に領域R内の場面に物体Vが存在するかどうか見
せて下さい」をグラフに描いたものである。図18〜2
1は、このシーケンスに対して質問エンジンによって行
なわれる工程を例示する。
【0119】最後に、質問を満たす各々のV物体Vi
対し、質問エンジンが、クリップCi 並びにV物体に対
するポインタで構成された結果Ri =(Ci ,Vi )を
発生する。Ci の最初及び最後のフレームは、特定され
ている場合、質問の時間的な制約Tを反映するように設
定される。そうでなければ、質問内で特定されたクリッ
プCのそれに設定する。Ci の「関心のあるフレーム」
は、Vi を含むフレームに設定する。こういう結果が、
表示の為に、グラフ式ユーザ・インターフェースに送ら
れる。
【0120】グラフ式ユーザ・インターフェース(GU
I)28は、空間的、時間的、事象に基づいた、並びに
物体に基づいた質問の処理を通じて、ユーザがビデオ・
シーケンスを解析する事が出来るようにする。図22
は、GUIの「再生」部分の図である。インターフェー
スは、ユーザが解析の為にビデオ・クリップを選択し、
その後、VCRのような制御装置(即ち、正転、逆転、
停止、前向き歩進、後向き歩進)を使って、それを再生
する事が出来るようにする。GUI 28は、中間解析
結果を記録する為のシステムの「クリップボード」にも
なる。例えば、図24に示すクリップボードは3ユーザ
によるそれ迄の質問の結果である3つのクリップを含
む。ユーザは、この内の1つのクリップを選択し、それ
を使って質問を出す事が出来る。その結果得られたクリ
ップが、クリップボード・スタックの上部に押出され
る。ユーザは、ボタンによる指令「上」、「下」及び
「飛出し」を使って、スタックを精査する事が出来る。
【0121】図25はAVI装置に対する質問インター
フェースを示す。このインターフェースを使って、ユー
ザは、前に述べたようなY=(C,T,V,R,E)と
いう形式の全面的な質問を出す事が出来る。「形式」フ
ィールドを使って、ユーザは質問の4つの形式の任意の
組合せを特定する事が出来る。質問インターフェース
が、時間的な並びに事象に基づいた質問に対するパラメ
ータを設定する為のフィールドを提供する。空間的な並
びに物体に基づいた質問に対するパラメータは、図24
に示したビデオ再生窓の内側にあるマウスを使って設定
する事が出来る。質問の形式及びパラメータを特定した
後、ユーザが「適用」ボタン指令を実行して、AVI装
置に対して質問を出す。その結果得られたクリップがシ
ステムのクリップボードに記入される。
【0122】図2は、保安監視用に特徴的な動きの内容
を持つ一例のビデオ・シーケンスのフレームを示してい
る。このシーケンスでは、人が画面に入り、1枚の紙、
ブリーフケース及び本を置き、その後出てゆく。この人
が再び画面に入り、ブリーフケースを取り去り、再び出
てゆく。ユーザが「全ての置く事象を見つける」という
質問を作ると、AVI装置は、紙、ブリーフケース及び
本を置く人を映すビデオ・クリップで応答する。図3
は、この質問に対して、AVI装置によって与えられた
実際の結果を示す。
【0123】図24は、どのようにもっと複雑な質問で
も用いる事が出来るかを実証している。「全ての置く事
象を見せよ」という質問に応答して図3の3つのクリッ
プを受取った後、AVIシステムのユーザは、図3のシ
ーケンスに出てくるブリーフケースの運命について更に
知りたいと思うようになる。最初に、ユーザはクリップ
ボードからフレームF78(図24(a)に示す)を目立
たせるクリップを検索し、ブリーフケースを置くことが
映った人に対して、「この物体の入ってくる事象を見つ
けよ」という質問を用いる。装置は、図24(b)に示
すように、画面に入ってくる人が初めて登場する所を示
す1枚のクリップで応答する。ユーザはこの点でクリッ
プを再生し、ブリーフケースを部屋に運び込んだ人を観
察する事が出来る。
【0124】次に、ユーザは、ブリーフケースを持って
いる人に対して、「この物体(によって起された)取り
去る事象を見つけよ」という質問を用いる。装置は、そ
のような事象が無い事を述べて応答する。(実際、この
人は出ていって再び部屋に入る迄は、物体を取り去るこ
とがなく、再び入った点で、この人は異なる物体として
定義されているので、これは正しい。)
【0125】次にユーザは、クリップボード・スタック
の飛出しを2回叩く事により、図24(a)の元のクリ
ップに戻る。そこでユーザは、ブリーフケースに対し
て、「この物体の取り去る事象を見つけよ」という質問
を用いる。装置は、図24(c)に示すように、ブリー
フケースを取去る人が2回目に登場する1枚のクリップ
で応答する。
【0126】最後に、ユーザは、ブリーフケースを取り
去る人に対して、「この物体の出ていく事象を見つけ
よ」という質問を特定する。この時、装置は、図24
(d)に示すように、(ブリーフケースと共に)部屋を
出ていく時のこの人の1枚のクリップで応答する。
【0127】合計900フレーム、18個の物体及び4
4個の事象を含む3つのビデオ・シーケンスに対して、
AVI装置を使って、ここで説明したビテオ索引方式を
試験した。これらのシーケンスは、異なる場面監視領域
の実物模型として作られた。
【0128】試験シーケンス1(即ち、「テーブル」シ
ーケンス)は、在庫又は保安監視用に特徴的である(図
2参照)。このシーケンスでは、人が、天井カメラによ
って記録されている通りに、部屋に種々の物体を持込
み、取出す。これは毎秒約10フレームで撮影された3
00フレーム、及び10個の事象を発生する5個の物体
を含んでいる。このシーケンスは入ってくること/出て
いくこと、及び置くこと/取り去ることの事象と、物体
の閉塞の2つの事例を含んでいる。
【0129】試験シーケンス2(「玩具」シーケンス)
は小売店の客を監視する用途に特徴的である(図25参
照)。このシーケンスでは、客が店の棚の所で止まり、
異なる製品を調べ、最後に1つを持っていく。毎秒約1
0フレームで285フレームを含み、14個の事象を発
生する4個の物体を含む。これは、試験シーケンスの内
でも最も複雑である。これは8つの事象の全部の例を含
んでおり、幾つかの閉塞の場面を表示し、最初のフレー
ムにある3つの前景の物体を含んでいる。
【0130】試験シーケンス3(「駐車」シーケンス)
は駐車場の交通を監視する用途に特徴的である(図26
参照)。このシーケンスでは、車が駐車場に入り、停止
し、運転者がその乗り物から出て来て、歩行者が視野の
中を歩いて行く。これは毎秒約3フレームで撮影された
315フレームを含むと共に、20個の事象を発生する
9個の物体を含む。デジタル化する前に、このシーケン
スは最初は普通の消費者用の装置を用いて8ミリ・テー
プで記録され、その為、試験シーケンスの中で最も「雑
音の多い」ものであった。
【0131】各々の試験シーケンスに索引を付し、8つ
の事象の各々の索引を検出する時の成否を記録する事に
より、AVI装置の性能を測定した。表1−3は、これ
ら3つの試験シーケンスに対するAVI装置の事象検出
結果を示す。各々の事象に対し、これらの表は、実際に
シーケンス内に存在する事象の数、AVI装置によって
見つけられた数、種類I(否定的な虚偽)の誤り及び種
類II(肯定的な虚偽)の誤りを示している。試験シー
ケンスにある合計44個の事象の内、AVI装置は10
個の種類IIの誤りを示したが、種類Iの誤りは1つし
か示さなかった。従って、この装置は控目であって、少
なくとも所望の事象を見つける傾向がある。
【0132】装置の性能が最も悪かったのは試験シーケ
ンス3で示したのは、種類Iの誤りだけと全部で10あ
る種類IIの誤り8個であった。これは主に3つの理由
に由る。
【0133】1.フレーム同期信号が不良である事から
生ずる垂直ジッタを含むシーケンス内の雑音により、動
きセグメント分割のマスクが非常に不安定になった。こ
の為、不動の物体がかなり動いているように見える。
【0134】2.閉塞を介して物体を追跡する為に使わ
れている方法は、現在では、物体の一定の軌跡を仮定し
ている。急速に変化する軌跡が存在しても更に頑丈な動
き追跡方式にすれば、多くの事象に対して肯定的な虚偽
の数が一層少なくなろう。プロシーディングズ・オブ・
ザ・フィフス・インターナショナル・コンファレンス・
オン・コンピュータ・ビジョン誌、672−678(1
995年)所載のS.インティル及びA.ボビックの論
文「閉じた世界の追跡」参照。
【0135】3.画面の固定の物体により、閉塞を介し
て物体を追跡する手段が現在では使われていない。画面
の前景にある照明用のポールは、その背後を歩く歩行者
を一時的に閉塞し、入ってくること/出ていくことの距
離の事象の対を生ずる。しかし、多数の同時の閉塞及び
動く影があるにも拘らず、装置は試験シーケンス1及び
2に対する性能は非常に良かった。シーケンス全体とし
ては、装置は多数の物体に特有の質問に正確に応答出来
る位に十分頑丈である。
【0136】
【表1】
【0137】
【表2】
【0138】
【表3】
【0139】ここで説明したビデオ索引装置は、例えば
先進的ビデオ動き検出器などでは、実時間装置として構
成する事も出来る。図27はこのような構成の線図を示
す。ここで視覚装置100がカメラ101の出力をフレ
ーム毎に処理し、事象の索引マークを注釈として付した
動きのグラフを連続的に更新する。事象スキャナ103
が更新された動きのグラフを連続的に読取り、あらかじ
め設定された監視点によって特定される動きの事象を探
索する。こういう監視点は、AVIユーザ・インターフ
ェースからの質問と同じ形、即ち、Y=(C,T,V,
R,E)にする事が出来る。1つの監視点に対する判断
基準が満された時、事象スキャナが(警報器のような)
アクチュエータ105に信号を送る。この発明並びにそ
の利点を詳しく説明したが、特許請求の範囲によって定
められたこの発明の範囲を逸脱せずに、ここで説明した
実施例に種々の置換え及び変更を加える事が出来る事を
承知されたい。
【0140】以上の説明に関し、さらに以下の項目を開
示する。
【0141】(1) ビデオに索引をつける方法に於い
て、前記ビデオ内のビデオ物体を動きによってセグメン
ト分割し、セグメント分割されたビデオ物体並びに相次
ぐフレーム内での動きを記述するセグメント分割された
ビデオ物体の記録を作成し、前記物体の経路並びに他の
物体の経路との交差を決定して、事象の発生を検出し、
事象の発生を確認する為に索引マークを付す工程を含む
方法。
【0142】(2) 項1記載の方法に於いて、事象の
発生を決定する工程が、物体の出現/消滅、置くこと/
取除くこと、動き/静止又は入ってくること/出てゆく
ことの内の1つ又は更に多くを決定する事を含む方法。
【0143】(3) 項1記載の方法に於いて、前記記
録を作成する工程が、悉くのビデオ・フレームに於ける
各々の物体の寸法、形、位置、時刻の刻印及び像の記録
を作成することを含む方法。
【0144】(4) ビデオ内にある物体の動きからビ
デオに索引を付ける方法に於いて、動きによるセグメン
ト分割によって動く物体を検出し、物体並びにビデオ・
データの相次ぐフレームでのその動きを記述する注釈付
きの方向ぎめされた動きのグラフを作成し、交差の事象
を確認する為に前記動きのグラフに索引を付す工程を含
む方法。
【0145】(5) 項4記載の方法に於いて、前記索
引を付す事が、規則に基づく分類方式を用いる方法。
【0146】(6) 項4記載の方法に於いて、前記事
象が、物体の出現/消滅、置くこと/取除くこと、入っ
てくること/出てゆくこと又は動き/静止を含む方法。
【0147】(7) ビデオ・データの人間による解析
を助ける方法に於いて、動きによるセグメント分割によ
って動く物体を検出し、物体並びにビデオ・データの相
次ぐフレームでのその動きを記述する注釈付きの方向ぎ
めされた動きのグラフを作成し、交差の事象を確認する
為に前記動きのグラフに索引を付し、ビデオの略式の前
後関係を解析する為に、前記索引によって前記動きのグ
ラフに関係づけられたビデオ・データのクリップに質問
を付ける工程を含む方法。
【0148】(8) 動く物体を検出する手段と、該検
出する手段に結合されていて、物体並びにビデオ・デー
タの相次ぐフレームでの動きを記述する注釈付きの方向
ぎめされた動きのグラフを作成する手段と、該作成する
手段に結合されていて、関心のある事象に従って前記動
きのグラフに索引を付す手段とを有するビデオに索引を
付ける装置。
【0149】(9) 項8記載の装置に於いて、索引を
付ける手段が、物体の出現/消滅、置くこと/取除くこ
と、入ってくること/出てゆくこと又は動き/静止の事
象に索引を付す装置。
【0150】(10) 監視カメラ11からのビデオ内
の動く物体は、動きセグメント分割装置21により、動
きセグメント分割方法を用いてビデオ・シーケンス内で
検出される。物体が、物体追跡装置22にあるセグメン
ト分割されたデータを通じて追跡される。物体並びにそ
の動きを記述する注釈を付したグラフの形で、ビデオの
記号表示が発生される。動き解析装置23が物体を追跡
した結果を解析し、幾つかの事象を記述する索引をグラ
フの動きに注釈として付ける。その後、物体の出現/消
滅、置くこと/取去ること、入ってくること/出てゆく
こと及び動き/静止のような関心のある事象を確認する
為の規則に基づいた分類方式を用いて、索引が付けられ
る。空間−時間的な質問並びに事象及び物体に基づく質
問によって定められたビデオのクリップが呼出されて、
所望のビデオを見せる。
【図面の簡単な説明】
【図1】この発明の一実施例に従ってあらかじめ記録さ
れたビデオに自動的に索引を付ける装置の全体図。
【図2】各々の像の下にフレーム番号を付した一連のビ
デオ・フレーム・シーケンス(試験シーケンス1)を示
す図。
【図3】「全ての物を置く事象を示せ」という質問を満
たすビデオ・シーケンス内の点を示す図。
【図4】ビデオ・データ、動きのセグメント分割及びビ
デオ・メタ情報の間の関係を示す図。
【図5】自動ビデオ索引装置のアーキテクチャーを示す
図。
【図6】動きセグメント分割装置を示す図。
【図7】動きのセグメント分割の例を示し、(a)は基
準画像I0 、(b)画像In 、(c)絶対的な差|Dn
=In −I0 |、(d)閾値画像Th 、(e)形態学的
な閉じ操作の結果、(f)連結された構成要素の解析結
果。
【図8】露出された背景領域を見込んで修正されたテレ
ビ・カメラからの基準画像の図。
【図9】1−Dフレームの仮説的なシーケンスに対する
物体追跡段の出力を示しており、“Fn ”とを記した垂
直線がフレーム番号nを表わし、1次リンクは実線、2
次リンクは破線で示してある。
【図10】1−Dフレームのシーケンスに対する一例の
動きのグラフを示す図。
【図11】ステムの図。
【図12】ブランチの図。
【図13】トレイルの図。
【図14】トラックの図。
【図15】トレースの図。
【図16】図10に索引規則を適用した結果を示す。
【図17】質問Y=(C,T,V,R,E)を表わすグ
ラフ。
【図18】時間的な制約の処理を示す図。
【図19】物体に基づく制約の処理を示す図。
【図20】空間的な制約の処理を示す図。
【図21】事象に基づく制約の処理を示す図。
【図22】GUIの「再生」部分の映像を示す図。
【図23】質問インターフェースの図。
【図24】ビデオ・クリップa,b,c,dを備えた先
進的な質問を用いるビデオ内容の解析を示す図。
【図25】試験シーケンス2のフレームを示す図。
【図26】試験シーケンス3のフレームを示す図。
【図27】実時間装置におけるビデオ索引を示す図。
【符号の説明】
11 カメラ 13 視覚装置 15 データベース 17 ユーザ・インターフェース 19 モニタ 21 動きセグメント分割装置 22 物体追跡装置 23 動き解析装置
【手続補正書】
【提出日】平成9年6月11日
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】図面の簡単な説明
【補正方法】変更
【補正内容】
【図面の簡単な説明】
【図1】この発明の一実施例に従ってあらかじめ記録さ
れたビデオに自動的に索引を付ける装置の全体図。
【図2】各々の像の下にフレーム番号を付した一連のビ
デオ・フレーム・シーケンス(試験シーケンス1)を示
ディスプレー上に表示した中間調画像の写真
【図3】「全ての物を置く事象を示せ」という質問を満
たすビデオ・シーケンス内の点を示すディスプレー上に
表示した中間調画像の写真
【図4】ビデオ・データ、動きのセグメント分割及びビ
デオ・メタ情報の間の関係を示すディスプレー上に表示
した中間調画像の写真
【図5】自動ビデオ索引装置のアーキテクチャーを示す
図。
【図6】動きセグメント分割装置を示す図。
【図7】動きのセグメント分割の例を示すディスプレー
上に表示した中間調画像の写真であって、(a)は基準
画像I、(b)画像I、(c)絶対的な差|Dn=
−I|、(d)閾値画像T、(e)形態学的な
閉じ操作の結果、(f)連結された構成要素の解析結
果。
【図8】露出された背景領域を見込んで修正されたテレ
ビ・カメラからの基準画像を示すディスプレー上に表示
した中間調画像の写真
【図9】1−Dフレームの仮説的なシーケンスに対する
物体追跡段の出力を示しており、“F”とを記した垂
直線がフレーム番号nを表わし、1次リンクは実線、2
次リンクは破線で示してある。
【図10】1−Dフレームのシーケンスに対する一例の
動きのグラフを示す図。
【図11】ステムの図。
【図12】ブランチの図。
【図13】トレイルの図。
【図14】トラックの図。
【図15】トレースの図。
【図16】図10に索引規則を適用した結果を示す
【図17】質問Y=(C,T,V,R,E)を表わすグ
ラフ。
【図18】時間的な制約の処理を示す図。
【図19】物体に基づく制約の処理を示す図。
【図20】空間的な制約の処理を示す図。
【図21】事象に基づく制約の処理を示す図。
【図22】GUIの「再生」部分の映像を示すディスプ
レー上に表示した中間調画像の写真
【図23】質問インターフェースの図。
【図24】ビデオ・クリップa,b,c,dを備えた先
進的な質問を用いるビデオ内容の解析を示すディスプレ
ー上に表示した中間調画像の写真
【図25】試験シーケンス2のフレームを示すディスプ
レー上に表示した中間調画像の写真
【図26】試験シーケンス3のフレームを示すディスプ
レー上に表示した中間調画像の写真
【図27】実時間装置におけるビデオ索引を示す図。
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 7/18 G06F 15/62 340A

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】 ビデオに索引をつける方法に於いて、 前記ビデオ内のビデオ物体を動きによってセグメント分
    割し、 セグメント分割されたビデオ物体並びに相次ぐフレーム
    内での動きを記述するセグメント分割されたビデオ物体
    の記録を作成し、 前記物体の経路並びに他の物体の経路との交差を決定し
    て、事象の発生を検出し、 事象の発生を確認する為に索引マークを付す工程を含む
    方法。
  2. 【請求項2】 動く物体を検出する手段と、 該検出する手段に結合されていて、物体並びにビデオ・
    データの相次ぐフレームでの動きを記述する注釈付きの
    方向ぎめされた動きのグラフを作成する手段と、 該作成する手段に結合されていて、関心のある事象に従
    って前記動きのグラフに索引を付す手段と、 を有するビデオに索引を付ける装置。
JP9037015A 1996-02-05 1997-02-05 ビデオに索引をつける方法 Pending JPH1084525A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US1110696P 1996-02-05 1996-02-05
US1118996P 1996-02-05 1996-02-05
US011189 1996-02-05
US011106 1996-02-05

Publications (1)

Publication Number Publication Date
JPH1084525A true JPH1084525A (ja) 1998-03-31

Family

ID=26682009

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9037015A Pending JPH1084525A (ja) 1996-02-05 1997-02-05 ビデオに索引をつける方法

Country Status (2)

Country Link
EP (1) EP0805405A3 (ja)
JP (1) JPH1084525A (ja)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000049525A1 (de) * 1999-02-18 2000-08-24 Siemens Aktiengesellschaft Verfahren und anordnung zum abspeichern von mindestens einem bild mit zugehöriger relationalen information
JP2001230993A (ja) * 2000-02-14 2001-08-24 Jisedai Joho Hoso System Kenkyusho:Kk 映像インデックス付与方法、その方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体、映像インデックス配信装置および映像インデックス保存装置
KR20010082009A (ko) * 2000-02-15 2001-08-29 아끼구사 나오유끼 데이터 처리 장치
JP2005347905A (ja) * 2004-06-01 2005-12-15 Oki Electric Ind Co Ltd 防犯支援システム
JP2007052626A (ja) * 2005-08-18 2007-03-01 Matsushita Electric Ind Co Ltd メタデータ入力装置およびコンテンツ処理装置
JPWO2006016461A1 (ja) * 2004-08-09 2008-05-01 株式会社ニコン 撮像装置
US7627199B2 (en) 2006-04-06 2009-12-01 Mitsubishi Electric Corporation Image surveillance/retrieval system
US8676038B2 (en) 2007-07-05 2014-03-18 Sony Corporation Recording/reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method and computer program
JP2015528613A (ja) * 2012-09-13 2015-09-28 ゼネラル・エレクトリック・カンパニイ 意味注釈を生成するためのシステムおよび方法
JP2017134691A (ja) * 2016-01-28 2017-08-03 株式会社ブロードリーフ 作業分析支援装置、作業分析支援方法及びコンピュータプログラム
JP2018081630A (ja) * 2016-11-18 2018-05-24 株式会社東芝 検索装置、検索方法およびプログラム
JP2018147478A (ja) * 2017-03-02 2018-09-20 株式会社リコー 顕著フラグメントへのビデオストリームの分解
WO2018179361A1 (ja) * 2017-03-31 2018-10-04 日本電気株式会社 画像処理装置、画像処理方法、および記録媒体
WO2018179360A1 (ja) * 2017-03-31 2018-10-04 日本電気株式会社 画像処理装置、画像処理方法、および記録媒体
JP6427650B1 (ja) * 2017-11-21 2018-11-21 三菱電機インフォメーションシステムズ株式会社 追跡装置及び追跡プログラム
US10708635B2 (en) 2017-03-02 2020-07-07 Ricoh Company, Ltd. Subsumption architecture for processing fragments of a video stream
US10713391B2 (en) 2017-03-02 2020-07-14 Ricoh Co., Ltd. Tamper protection and video source identification for video processing pipeline
US10719552B2 (en) 2017-03-02 2020-07-21 Ricoh Co., Ltd. Focalized summarizations of a video stream
US10929685B2 (en) 2017-03-02 2021-02-23 Ricoh Company, Ltd. Analysis of operator behavior focalized on machine events
US10929707B2 (en) 2017-03-02 2021-02-23 Ricoh Company, Ltd. Computation of audience metrics focalized on displayed content
US10943122B2 (en) 2017-03-02 2021-03-09 Ricoh Company, Ltd. Focalized behavioral measurements in a video stream
US10949463B2 (en) 2017-03-02 2021-03-16 Ricoh Company, Ltd. Behavioral measurements in a video stream focalized on keywords
US10949705B2 (en) 2017-03-02 2021-03-16 Ricoh Company, Ltd. Focalized behavioral measurements in a video stream
US10956773B2 (en) 2017-03-02 2021-03-23 Ricoh Company, Ltd. Computation of audience metrics focalized on displayed content
US10956494B2 (en) 2017-03-02 2021-03-23 Ricoh Company, Ltd. Behavioral measurements in a video stream focalized on keywords
US10956495B2 (en) 2017-03-02 2021-03-23 Ricoh Company, Ltd. Analysis of operator behavior focalized on machine events

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2674499A (en) * 1998-02-13 1999-08-30 Fast Tv Processing and delivery of audio-video information
AUPP340798A0 (en) * 1998-05-07 1998-05-28 Canon Kabushiki Kaisha Automated video interpretation system
US6643387B1 (en) 1999-01-28 2003-11-04 Sarnoff Corporation Apparatus and method for context-based indexing and retrieval of image sequences
FR2789196B1 (fr) * 1999-01-28 2001-03-30 Univ Paris Curie Procede de generation de descriptions de documents multimedia
US6366701B1 (en) 1999-01-28 2002-04-02 Sarnoff Corporation Apparatus and method for describing the motion parameters of an object in an image sequence
WO2000045339A1 (en) * 1999-01-28 2000-08-03 Sarnoff Corporation Apparatus and method for describing the motion parameters of an object in an image sequence
US6462754B1 (en) * 1999-02-22 2002-10-08 Siemens Corporate Research, Inc. Method and apparatus for authoring and linking video documents
US6754389B1 (en) 1999-12-01 2004-06-22 Koninklijke Philips Electronics N.V. Program classification using object tracking
EP1208566A2 (en) * 2000-04-05 2002-05-29 Sony Uk Ltd INFORMATION IDENTIFICATION, RECORDING AND REPRODUCTION
JP2002010240A (ja) * 2000-06-21 2002-01-11 Matsushita Electric Ind Co Ltd 監視システム
AU2001215223A1 (en) * 2000-11-20 2002-05-27 Orlean Holding N.V. Improved two-image cropping system and method and the use thereof in the digitalprinting and surveillance field
EP1396149B1 (en) * 2001-03-14 2014-07-23 Tyco Fire & Security GmbH Digital video recording
JP2003345803A (ja) * 2002-05-24 2003-12-05 Iwane Kenkyusho:Kk 状況記録検索装置
GB2402829A (en) * 2003-06-10 2004-12-15 Equipe Electronics Ltd Surveillance image recording system
JP4380523B2 (ja) 2004-12-17 2009-12-09 カシオ計算機株式会社 画像処理装置及び画像処理方法、カメラ装置
US7778445B2 (en) * 2006-06-07 2010-08-17 Honeywell International Inc. Method and system for the detection of removed objects in video images
EP1871114A1 (en) * 2006-06-22 2007-12-26 Thomson Licensing Method and device for estimating motion vectors in a field containing at least one static area
EP1914995A1 (en) * 2006-06-22 2008-04-23 Thomson Licensing Method and device for estimating motion vectors in a field containing at least one static area
US7925112B2 (en) 2007-02-28 2011-04-12 Honeywell International Inc. Video data matching using clustering on covariance appearance
US7898576B2 (en) * 2007-02-28 2011-03-01 Honeywell International Inc. Method and system for indexing and searching objects of interest across a plurality of video streams
CN101426128B (zh) * 2007-10-30 2012-10-03 三星电子株式会社 偷盗和遗失包裹检测***和检测方法
JP2009163385A (ja) * 2007-12-28 2009-07-23 Noritsu Koki Co Ltd ビューアーソフトウエアプログラムおよびビューアー装置
AU2009269607B2 (en) * 2008-07-08 2015-03-26 Nortech International (Pty) Limited Apparatus and method of classifying movement of objects in a monitoring zone
CN102867086B (zh) * 2012-09-10 2014-06-25 安科智慧城市技术(中国)有限公司 一种监控摄像机的自动部署方法、***及电子设备
US9532086B2 (en) 2013-11-20 2016-12-27 At&T Intellectual Property I, L.P. System and method for product placement amplification
CN105141915A (zh) * 2015-08-26 2015-12-09 广东创我科技发展有限公司 一种视频查找方法及***
CN107770528B (zh) * 2016-08-19 2023-08-25 中兴通讯股份有限公司 视频播放方法及装置
US11399207B2 (en) 2018-02-02 2022-07-26 Comcast Cable Communications, Llc Image selection using motion data
CN114245033A (zh) * 2021-11-03 2022-03-25 浙江大华技术股份有限公司 视频合成方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3852927T2 (de) * 1987-11-26 1995-06-29 Fujitsu Ltd Notüberwachungssystem mit Infrarotverarbeitung.

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000049525A1 (de) * 1999-02-18 2000-08-24 Siemens Aktiengesellschaft Verfahren und anordnung zum abspeichern von mindestens einem bild mit zugehöriger relationalen information
JP2001230993A (ja) * 2000-02-14 2001-08-24 Jisedai Joho Hoso System Kenkyusho:Kk 映像インデックス付与方法、その方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体、映像インデックス配信装置および映像インデックス保存装置
KR20010082009A (ko) * 2000-02-15 2001-08-29 아끼구사 나오유끼 데이터 처리 장치
JP2005347905A (ja) * 2004-06-01 2005-12-15 Oki Electric Ind Co Ltd 防犯支援システム
JPWO2006016461A1 (ja) * 2004-08-09 2008-05-01 株式会社ニコン 撮像装置
JP4636024B2 (ja) * 2004-08-09 2011-02-23 株式会社ニコン 撮像装置
JP2007052626A (ja) * 2005-08-18 2007-03-01 Matsushita Electric Ind Co Ltd メタデータ入力装置およびコンテンツ処理装置
US7627199B2 (en) 2006-04-06 2009-12-01 Mitsubishi Electric Corporation Image surveillance/retrieval system
US8676038B2 (en) 2007-07-05 2014-03-18 Sony Corporation Recording/reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method and computer program
JP2015528613A (ja) * 2012-09-13 2015-09-28 ゼネラル・エレクトリック・カンパニイ 意味注釈を生成するためのシステムおよび方法
JP2017134691A (ja) * 2016-01-28 2017-08-03 株式会社ブロードリーフ 作業分析支援装置、作業分析支援方法及びコンピュータプログラム
JP2018081630A (ja) * 2016-11-18 2018-05-24 株式会社東芝 検索装置、検索方法およびプログラム
US10929685B2 (en) 2017-03-02 2021-02-23 Ricoh Company, Ltd. Analysis of operator behavior focalized on machine events
US10708635B2 (en) 2017-03-02 2020-07-07 Ricoh Company, Ltd. Subsumption architecture for processing fragments of a video stream
US11398253B2 (en) 2017-03-02 2022-07-26 Ricoh Company, Ltd. Decomposition of a video stream into salient fragments
US10956495B2 (en) 2017-03-02 2021-03-23 Ricoh Company, Ltd. Analysis of operator behavior focalized on machine events
US10956494B2 (en) 2017-03-02 2021-03-23 Ricoh Company, Ltd. Behavioral measurements in a video stream focalized on keywords
US10956773B2 (en) 2017-03-02 2021-03-23 Ricoh Company, Ltd. Computation of audience metrics focalized on displayed content
US10949705B2 (en) 2017-03-02 2021-03-16 Ricoh Company, Ltd. Focalized behavioral measurements in a video stream
US10943122B2 (en) 2017-03-02 2021-03-09 Ricoh Company, Ltd. Focalized behavioral measurements in a video stream
US10713391B2 (en) 2017-03-02 2020-07-14 Ricoh Co., Ltd. Tamper protection and video source identification for video processing pipeline
US10720182B2 (en) 2017-03-02 2020-07-21 Ricoh Company, Ltd. Decomposition of a video stream into salient fragments
US10719552B2 (en) 2017-03-02 2020-07-21 Ricoh Co., Ltd. Focalized summarizations of a video stream
US10949463B2 (en) 2017-03-02 2021-03-16 Ricoh Company, Ltd. Behavioral measurements in a video stream focalized on keywords
JP2018147478A (ja) * 2017-03-02 2018-09-20 株式会社リコー 顕著フラグメントへのビデオストリームの分解
US10929707B2 (en) 2017-03-02 2021-02-23 Ricoh Company, Ltd. Computation of audience metrics focalized on displayed content
JPWO2018179360A1 (ja) * 2017-03-31 2020-01-09 日本電気株式会社 画像処理装置、画像処理方法、およびプログラム
WO2018179361A1 (ja) * 2017-03-31 2018-10-04 日本電気株式会社 画像処理装置、画像処理方法、および記録媒体
JPWO2018179361A1 (ja) * 2017-03-31 2020-01-09 日本電気株式会社 画像処理装置、画像処理方法、およびプログラム
US11250570B2 (en) 2017-03-31 2022-02-15 Nec Corporation Display rack image processing device, image processing method, and recording medium
WO2018179360A1 (ja) * 2017-03-31 2018-10-04 日本電気株式会社 画像処理装置、画像処理方法、および記録媒体
GB2581692A (en) * 2017-11-21 2020-08-26 Mitsubishi Electric Corp Tracking device and tracking program
WO2019102674A1 (ja) * 2017-11-21 2019-05-31 三菱電機株式会社 追跡装置及び追跡プログラム
JP6427650B1 (ja) * 2017-11-21 2018-11-21 三菱電機インフォメーションシステムズ株式会社 追跡装置及び追跡プログラム
GB2581692B (en) * 2017-11-21 2021-03-24 Mitsubishi Electric Corp Tracking apparatus and tracking program

Also Published As

Publication number Publication date
EP0805405A2 (en) 1997-11-05
EP0805405A3 (en) 1998-04-15

Similar Documents

Publication Publication Date Title
JPH1084525A (ja) ビデオに索引をつける方法
US5969755A (en) Motion based event detection system and method
US6424370B1 (en) Motion based event detection system and method
Courtney Automatic video indexing via object motion analysis
Hampapur et al. Production model based digital video segmentation
Brunelli et al. A survey on the automatic indexing of video data
US8494231B2 (en) Face recognition in video content
Stringa et al. Real-time video-shot detection for scene surveillance applications
Aigrain et al. Content-based representation and retrieval of visual media: A state-of-the-art review
Swanberg et al. Knowledge-guided parsing in video databases
Zhu et al. Video data mining: Semantic indexing and event detection from the association perspective
Ajmal et al. Video summarization: techniques and classification
US8401252B2 (en) Video retrieval system for human face content
Vijayakumar et al. A study on video data mining
US8898185B2 (en) Trajectory retrieval system, method and software for trajectory data retrieval
US20050022252A1 (en) System for multimedia recognition, analysis, and indexing, using text, audio, and digital video
US20080243774A1 (en) Method and Software Program for Searching Image Information
US11308158B2 (en) Information processing system, method for controlling information processing system, and storage medium
KR20070118635A (ko) 오디오 및/또는 비주얼 데이터의 서머라이제이션
US11676389B2 (en) Forensic video exploitation and analysis tools
Chen et al. Multimedia data mining for traffic video sequences
KR20090093904A (ko) 장면 변화에 강인한 멀티미디어 영상 분석 장치 및 그 방법과, 그를 이용한 객체 기반 멀티미디어 편집 시스템
Zhang Content-based video browsing and retrieval
Chou et al. Coherent event-based surveillance video synopsis using trajectory clustering
EP1184810A2 (en) Improvements in or relating to motion event detection

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061027

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20070129

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20070201

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070904