JP2007114885A - 画像の類似性による分類方法及び装置 - Google Patents
画像の類似性による分類方法及び装置 Download PDFInfo
- Publication number
- JP2007114885A JP2007114885A JP2005303452A JP2005303452A JP2007114885A JP 2007114885 A JP2007114885 A JP 2007114885A JP 2005303452 A JP2005303452 A JP 2005303452A JP 2005303452 A JP2005303452 A JP 2005303452A JP 2007114885 A JP2007114885 A JP 2007114885A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- image information
- similarity
- change
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【解決手段】 動作をしうる対象体を撮像可能な複数の撮像手段と、その撮像手段によって得られた画像情報を少なくとも記録する記憶手段と、撮像手段によって得られた画像情報を少なくとも解析する演算手段とを備え、対象体を撮像して得た複数の画像における変化のパターンを分類する方法において、撮像手段によって対象体を連続的に撮像し、それら連続的に撮像された画像情報の差分から、撮像単位時間の間に発生した画像情報の変化量を求め、現時刻から所定の対象時間内における変化パターンを変数として(例えばクラスター分析を利用して)分類することによって、現時刻から所定の対象時間内における画像情報をほぼリアルタイムに分類する。
【選択図】 図2
Description
しかしながら、撮像手段を増やせば増やすほど、それらが撮像した映像も増えてしまうので、撮像手段や撮像データをもてあましているのが現状である。
撮像手段と1対1に対応づけられたディスプレイ等の表示手段を考えた場合は、その表示手段の大きさや設置スペースも問題となる。一人の監視員で50台も100台もの多数を監視するのも困難である。
しかし、これは3/4の映像を捨てていることになり、その間に監視したい出来事が発生するかもしれないので、万全な方法とはいいがたい。
しかし、例えば50台の撮像装置において同時に動作が発生した場合、結局は50台分の映像をチェックする必要が生じてしまう。
仮にこの聴衆一人一人に対し、撮像装置が設置されていたとしても、現在の技術では、結局人手によって聴衆一人一人を分類することになるだろう。
もし、ここで、講演者が講演を始めから今までの時間において、聴衆の頷き、首の捻り、不動の比率の変化や、聴衆の動作の一致状態を知ることができたら、それにあわせて話の内容を合理的に臨機応変に変えることができる。
しかし、従来には、撮像対象の動作に関する非言語情報を有効に、かつ具体的に活用や分類もせずにこれら非言語情報は利用されることもなく捨てられてきた。
類似性によって分類する方法は、例えば各特徴を数値化して比較することによるクラスター分析などがある。
また、以上において、略リアルタイムに分類するとは、分類対象の単位動作の完了後即座に分類処理を行うということである。
本実施例では、ビデオカメラ等の複数台の撮像手段で同時に撮像した動画像を、分類の対象としている。また、撮像手段から出力される撮像データは、CPU等の演算手段やHD等の記憶手段を備えCRT等の表示手段に接続されたコンピュータに入力されて処理される。なお、ここでは、撮像手段と被写体との間の距離や、撮像手段とコンピュータとの間のデータ伝送遅延は実質上は無視できるものとする。
仮に、撮像手段αがある動画像Mを撮像し、それと全く同じ動画像Mを1秒遅れで撮像手段βが撮像したとする。この場合、1秒の時間差はあるものの動画の内容は同一であるが、ここでは「似ていない」と判断する。ここでは、異なる位置にセットされた異なる撮像手段が、同一被写体を撮像し、類似した動画像Mを得た場合に「似ている」と判断する。そのために重要となるのは、動作の発生から終了までのタイミングの同一性と、動作の内容自体の類似性となる。
ここでの加工とは、動画を構成する1フレーム画像の各ピクセルにおいて、フレーム間での差異、例えば輝度差の絶対値の総和、を数値として表現することを意味する。
(数1)
(数2)
ここで示されているのは、フレーム間の時間Δtよりも十分に大きい比較用サンプリング期間S中に発生した動作である。フレーム間時間Δtは、例えば1秒間に15コマ撮像できる撮像装置ならば、Δt=0.0667秒となる。比較用サンプリング期間Sは、任意であるが例えば5秒等が適用できる。
例えば、この場合のサンプリング期間S中に発生した各撮像手段における総動作量Sα(=Σd(t)), Sβ, Sγは、Sβ<Sα=Sγとなる。
よって総動作量だけで考えると、撮像手段αによる画像情報は撮像手段γによる画像情報と等しく、撮像手段αによる画像情報も撮像手段γによる画像情報も撮像手段βによる画像情報とは異なる。
しかし、撮像手段αと撮像手段γが同一被写体を撮像したとは考えにくい。むしろ同一被写体を撮像したかどうかは、動作タイミングの発生時期で考えれば、撮像手段αと撮像手段βとが類似している。
この例で解るように、撮像手段間の動作総量Σd(t)の比較はさして重要でない。その一因には、動作総量Σd(t)が撮像手段と被写体との距離に依存してしまうことなどが挙げられる。むしろ、動作のタイミングの一致性を重視することが必要である。
動作非動作判断変数Dは、桁数がsの二進数表記であり、各桁がd(1)〜d(s)に対応する。d(t)>0ならば1、d(t)=0ならば0とする。静止した場所を撮り続けた動画ならば理想的にはd(t)=0であるが、前後フレーム間に電気電子的な微小ノイズが発生するのは一般的であるために、微小ノイズ用閾値Nを設定しd(t)≧Nならば1、d(t)<Nならば0とし、微小ノイズの影響を除去するのが一般的である。このようにして例えばDα=01011011010101などと表される。
sは、比較に用いるフレーム数であり、サンプリング期間Sのフレーム間時間Δtによる商で表せる。例えば1秒間に15コマ撮像できる撮像装置でサンプリング期間が5秒なら、s=S/Δt=5/0.0667=75[フレーム]となる。
すると、撮像手段αによる画像情報と撮像手段βによる画像情報のタイミングの同一性はDαとDβのハミング距離を調べることによって判断することができる。DαとDβのハミング距離は0であり、DαとDγのハミング距離は4である。取りきれなかったノイズや他の外乱を考慮しても、ハミング距離が小さいほどタイミングの同一性が高いことになる。
なお、画像情報のタイミングの同一性については、ハミング距離と同様にレーベンシュタイン距離等も適宜利用可能である。
例えば、撮像手段αが、ある人物Qの腕の動作のみのようなリズミカルな長周期振動を撮像し、撮像手段βが、ある人物Qの腕の動作と、首のリズミカルな短い周期振動とを撮像したとする。この場合、例えば動作発生部分を、周期と強度が異なる複数のsin波の合成波ととらえれば、この合成波をフーリエ変換することにより、動画像に内包されている周波数と強度を得ることが可能である。
これにより、大雑把な判断ではあるが撮像手段αと撮像手段βが同じ被写体を撮像し、撮像手段γは異なる被写体を撮像していると判断することにより分類が可能である。
撮像手段αと撮像手段βが同一被写体を撮像していると判断したので、どちらか一方からの情報で十分となるので、ここで有用な情報は撮像手段α(または撮像手段β)と撮像手段γの情報となる。
次に必要なことは、n個の各動画像の解析となる。
例えば撮像手段1台から得た動画像をリアルタイムに解析するならば、現状のコンピュータの演算速度でも十分に足りる。しかしながら、多数の撮像手段を駆使することや、また演算装置自体を廉価かつ低電力消費型のものにするならば、演算量の低減を優先させることは十分に意味があることである。
日本人が用いる一般的な口語では、主語の省略や、文末の省略、共話を誘うようなタイミングでの会話など、一般的な他国の口語と比べて曖昧な文型を多用することがあるため、自然と会話中にバックチャネリング等の非言語動作が多く見受けられる。
そこで、ここでは超長周期の動作は無意味なもの、或いは判断に高等な処理が必要なものとして捨象することにする。例えば、説明のために発話を伴って指先で仮想的な地図を空中に描くような大型の長期間非周期動作、退屈さなどが原因で座っている回転式の椅子を左右にゆっくりと振り続けるなどの超長周期の動作は、サンプリング期間Sよりも長いものとすれば自動的に無視したことになる。
ある特定の撮像手段αから得られた動画像の現時刻tからサンプリング期間S前までのd(t)を、上述方法で解析するだけでも、動作分析として例えば次の4動作に分類することができる。
(イ):最も頻出する周期的動作(変化)
(ロ):それ以外の周期的動作(変化)
(ハ):非周期的動作(変化)
(ニ):非動作(不動)
個人差はあるが、ある特定の撮像手段αから得られた動画像が、一般的なバックチャネリングであった場合、これらの動作分類イ〜ニは、それぞれ頷き(イ)、頷き以外の頻出する周期動作(ロ)、いわゆるジェスチャーなどの非周期動作(ハ)、非動作(ニ)と大雑把に見なすことができる。
m台の撮像装置から得られた各動画像は、動画像受信装置に入力され、演算装置によって計算処理され、それぞれd(t)として記憶装置に記録保存される。各d(t)は、分析結果表示装置で表示してもよい。
現在もしくは最大サンプリング期間S前までに人物Qが何らかの動作を行っている(Dα>0の場合)ならば、その動作が動作分類イ〜ハのどれに最も類似しているかマッチングを行う。これは、前述のようなサンプリング期間S内でのd(t)が示す動作の周期や強度の類似性を調べ、動作分類イ〜ハのどれに最も類似しているかを判断する。周期、強度を変数とした従来公知のクラスター分析でもよい。例えば動作分類イに最も類似していると判断されれば、人物Qはサンプリング期間S内で頷きをしたと判断できる。
また、類似性分類の結果、全m台の撮像装置から選ばれた非類似のn個の動画像は、演算装置から動画切替機への切替指示発信に従って、動画表示装置で表示してもよい。
全q人のうち、頷き(イ)が何人、頷き以外の周期動作(ロ)が何人、非周期動作(ハ)が何人、不動(ニ)が何人であるかや、或いは、動作分類イ〜ニの各比率を、即座に分類後分析結果表示装置で表示してもよい。
例えば、予め次のd(t)のパターンを、記憶装置に記録しておく。
(イ):家人が窓を普通に開けようとしている動作
(ロ):盗人が窓を破壊して侵入しようとしている典型的な動作
(ハ):それ以外の動作
(ニ):非動作(不動)
演算装置で、現在記録されているサンプリング期間S内のd(t)の変化が上記の動作分類イ〜ニのいずれに最も類似しているか判断することにより、もし盗人が窓を破壊して侵入しようとしている動作情報(ロ)が得られたら、付設警報装置によって警報を出すなどの出力を行えばよい。
このように、動作リズムに相当するd(t)を記録しておき、それを典型的な動作と比較させることは諸々の場面に活用できる。
Claims (8)
- 動作をしうる対象体を撮像可能な複数の撮像手段と、
その撮像手段によって得られた画像情報を少なくとも記録する記憶手段と、
撮像手段によって得られた画像情報を少なくとも解析する演算手段とを備え、
対象体を撮像して得た複数の画像における変化のパターンを分類する方法であって、
撮像手段によって対象体を連続的に撮像し、
それら連続的に撮像された画像情報の差分から、撮像単位時間の間に発生した画像情報の変化量を求め、
現時刻から所定の対象時間内における変化パターンを変数として類似性に従って分類することによって、
現時刻から所定の対象時間内における画像情報を略リアルタイムに分類
することを特徴とする画像の類似性による分類方法。 - 画像情報の変化量をフーリエ変換し、それにより得られる連続した撮像画像情報に内包されている周波数及び強度を、分類の変数として用いる
請求項1に記載の画像の類似性による分類方法。 - 撮像画像情報に変化が発生するタイミングに重み付けをする変数を用いて分類を行う
請求項1または2に記載の画像の類似性による分類方法。 - 類似性によって分類された各特長的な画像を、表示手段に出力して示す
請求項1ないし3に記載の画像の類似性による分類方法。 - 典型的な変化パターンを、
頻出する周期的変化、頻出しない周期的変化、非周期的変化、無変化、の4状態に分類し、
その4状態を示す分類状況を、略リアルタイムで表示手段に出力して示す
請求項1ないし4に記載の画像の類似性による分類方法。 - 複数の変化パターン間の類似関係を定め、
撮像画像を、その変化パターン間の類似関係に基づいて表示手段に階層表示する
請求項1ないし5に記載の画像の類似性による分類方法。 - 典型的な変化パターンを示す分類用変数を予め用意しておき、
その典型的な変化パターンに分類される画像情報が入力されたら、即座に表示手段に出力して示す
請求項1ないし6に記載の画像の類似性による分類方法。 - 動作をしうる対象体を撮像可能な複数の撮像手段と、
その撮像手段によって得られた画像情報を少なくとも記録する記憶手段と、
撮像手段によって得られた画像情報を少なくとも解析する演算手段とを備え、
対象体を撮像して得た複数の画像における変化のパターンを分類する装置であって、
対象体を連続的に撮像する撮像手段と、
撮像手段で連続的に撮像された画像情報を記録する記憶手段と、
記憶手段に蓄積された画像情報の差分から、撮像単位時間の間に発生した画像情報の変化量を算出し、
現時刻から所定の対象時間内における変化パターンを変数として分析することによって、
現時刻から所定の対象時間内における画像情報を略リアルタイムに分類する演算手段とを有する
ことを特徴とする画像の類似性による分類装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005303452A JP2007114885A (ja) | 2005-10-18 | 2005-10-18 | 画像の類似性による分類方法及び装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005303452A JP2007114885A (ja) | 2005-10-18 | 2005-10-18 | 画像の類似性による分類方法及び装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007114885A true JP2007114885A (ja) | 2007-05-10 |
Family
ID=38097020
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005303452A Pending JP2007114885A (ja) | 2005-10-18 | 2005-10-18 | 画像の類似性による分類方法及び装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007114885A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011170424A (ja) * | 2010-02-16 | 2011-09-01 | Nec Corp | 携帯端末及び画像分類方法 |
JP2012186536A (ja) * | 2011-03-03 | 2012-09-27 | Nikon Corp | 電子機器及びグループ化方法 |
JP2012186535A (ja) * | 2011-03-03 | 2012-09-27 | Nikon Corp | 電子機器及びグループ化方法 |
JP2012247888A (ja) * | 2011-05-26 | 2012-12-13 | Sony Corp | 情報処理装置、情報処理方法、プログラム、及び情報処理システム |
EP2683152A1 (en) * | 2011-03-03 | 2014-01-08 | Nikon Corporation | Electronic device and grouping method |
JP2017032443A (ja) * | 2015-08-03 | 2017-02-09 | 一般財団法人電力中央研究所 | 人の行動の同定方法、同定装置、及び同定プログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1173297A (ja) * | 1997-08-29 | 1999-03-16 | Hitachi Ltd | 音声とジェスチャによるマルチモーダル表現の時間的関係を用いた認識方法 |
JP2001067482A (ja) * | 1999-08-30 | 2001-03-16 | Atr Media Integration & Communications Res Lab | 人物の反応認識装置およびそのためのプログラムを記録したコンピュータ読取可能な記録媒体 |
JP2001067483A (ja) * | 1999-08-30 | 2001-03-16 | Katsuyoshi Kawasaki | 運動障害の客観的重症度評価方法 |
JP2005018674A (ja) * | 2003-06-30 | 2005-01-20 | Nippon Hoso Kyokai <Nhk> | コンテンツ特徴量抽出装置、コンテンツ特徴量抽出プログラムおよびコンテンツ特徴量抽出方法 |
-
2005
- 2005-10-18 JP JP2005303452A patent/JP2007114885A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1173297A (ja) * | 1997-08-29 | 1999-03-16 | Hitachi Ltd | 音声とジェスチャによるマルチモーダル表現の時間的関係を用いた認識方法 |
JP2001067482A (ja) * | 1999-08-30 | 2001-03-16 | Atr Media Integration & Communications Res Lab | 人物の反応認識装置およびそのためのプログラムを記録したコンピュータ読取可能な記録媒体 |
JP2001067483A (ja) * | 1999-08-30 | 2001-03-16 | Katsuyoshi Kawasaki | 運動障害の客観的重症度評価方法 |
JP2005018674A (ja) * | 2003-06-30 | 2005-01-20 | Nippon Hoso Kyokai <Nhk> | コンテンツ特徴量抽出装置、コンテンツ特徴量抽出プログラムおよびコンテンツ特徴量抽出方法 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011170424A (ja) * | 2010-02-16 | 2011-09-01 | Nec Corp | 携帯端末及び画像分類方法 |
JP2012186536A (ja) * | 2011-03-03 | 2012-09-27 | Nikon Corp | 電子機器及びグループ化方法 |
JP2012186535A (ja) * | 2011-03-03 | 2012-09-27 | Nikon Corp | 電子機器及びグループ化方法 |
EP2683152A1 (en) * | 2011-03-03 | 2014-01-08 | Nikon Corporation | Electronic device and grouping method |
EP2683152A4 (en) * | 2011-03-03 | 2015-04-08 | Nikon Corp | ELECTRONIC DEVICE AND METHOD OF REGROUPING |
JP2012247888A (ja) * | 2011-05-26 | 2012-12-13 | Sony Corp | 情報処理装置、情報処理方法、プログラム、及び情報処理システム |
JP2017032443A (ja) * | 2015-08-03 | 2017-02-09 | 一般財団法人電力中央研究所 | 人の行動の同定方法、同定装置、及び同定プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Fall detection based on dual-channel feature integration | |
US8295545B2 (en) | System and method for model based people counting | |
US11080533B2 (en) | Surveillance system with human behavior prediction by human action recognition | |
Cheng et al. | Illumination-sensitive background modeling approach for accurate moving object detection | |
US8073203B2 (en) | Generating effects in a webcam application | |
RU2393544C2 (ru) | Способ и устройство для обнаружения пламени | |
CN109598229B (zh) | 基于动作识别的监控***及其方法 | |
JP5088507B2 (ja) | 同一性判定装置、同一性判定方法および同一性判定用プログラム | |
CN113177469B (zh) | 人体属性检测模型的训练方法、装置、电子设备及介质 | |
CN112543936B (zh) | 用于动作识别的动作结构自注意力图卷积网络模型 | |
Turabzadeh et al. | Real-time emotional state detection from facial expression on embedded devices | |
JP2007114885A (ja) | 画像の類似性による分類方法及び装置 | |
US20220138536A1 (en) | Actional-structural self-attention graph convolutional network for action recognition | |
KR20150038877A (ko) | 사용자 입력에 대응되는 이벤트를 이용한 유저 인터페이싱 장치 및 방법 | |
Poonsri et al. | Improvement of fall detection using consecutive-frame voting | |
CN101316371A (zh) | 火焰侦测方法及装置 | |
CN110544491A (zh) | 一种实时关联说话人及其语音识别结果的方法及装置 | |
CN107122743A (zh) | 安防监控方法、装置和电子设备 | |
KR101979375B1 (ko) | 감시 영상의 객체 행동 예측 방법 | |
CN110674728B (zh) | 基于视频图像识别玩手机方法、装置、服务器及存储介质 | |
Ponce-López et al. | Non-verbal communication analysis in victim–offender mediations | |
CN109986553B (zh) | 一种主动交互的机器人、***、方法及存储装置 | |
TWI757940B (zh) | 視訊會議系統及其排除打擾的方法 | |
CN114764895A (zh) | 异常行为检测装置和方法 | |
JP2007048232A (ja) | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080930 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101221 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110308 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110420 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110517 |