JP2009211389A - 日誌作成装置及び日誌作成方法 - Google Patents

日誌作成装置及び日誌作成方法 Download PDF

Info

Publication number
JP2009211389A
JP2009211389A JP2008053508A JP2008053508A JP2009211389A JP 2009211389 A JP2009211389 A JP 2009211389A JP 2008053508 A JP2008053508 A JP 2008053508A JP 2008053508 A JP2008053508 A JP 2008053508A JP 2009211389 A JP2009211389 A JP 2009211389A
Authority
JP
Japan
Prior art keywords
case
action
information
diary
deep
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008053508A
Other languages
English (en)
Inventor
Takuo Moriguchi
拓雄 森口
Takehiro Mabuchi
健宏 馬渕
Satoshi Futami
聡 二見
Masaki Murakawa
正貴 村川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sohgo Security Services Co Ltd
Original Assignee
Sohgo Security Services Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sohgo Security Services Co Ltd filed Critical Sohgo Security Services Co Ltd
Priority to JP2008053508A priority Critical patent/JP2009211389A/ja
Publication of JP2009211389A publication Critical patent/JP2009211389A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)
  • Alarm Systems (AREA)

Abstract

【課題】画像情報に基づき正確な文字情報が生成可能で警備の品質向上を実現可能な日誌作成装置及び日誌作成方法の提供である。
【解決手段】物体の画像情報を記憶する第1記憶手段と、物体の動作の種類を表す動詞と動作に関連する名詞である格要素とを含み、動詞と格要素の意味関係を示す深層格で動作の種類を意味する行動名と動作主体を表す動作主格と動作開始時刻と動作終了時刻とを表す時間格とを深層格として有する深層格フレームを記憶可能な第2記憶部160と、画像情報から動作を抽出し、行動名と動作主格と時間格とを生成して深層格フレームに登録する言語構造構築部139と、行動名と動作主格と時間格とを取得し行動名を動詞に、動作主格を主語にした自然言語文から要約文を生成すると共に時間格を時間情報として付与することにより警備日誌を作成する警備日誌作成部140とを備えた日誌作成装置である。
【選択図】 図1

Description

本発明は、監視カメラによって撮像された監視領域の画像から生成された画像情報に含まれる行動者の画像情報に基づいて、言語情報である要約文を作成し、警備日誌を作成する日誌作成装置及び日誌作成方法に関するものである。
従来、美術館や銀行等の施設やビルの警備において、警備員が携帯するコードレス電話から位置情報信号を送信し、監視センタにおいて位置情報信号を受信し、記録することにより、警備の記録である警備日誌を作成する技術が開示されている。昨今においては、コードレス電話(移動局装置)から、移動局装置の在圏管理を行う構内変換装置に位置情報信号を送信し、構内変換装置において受信した位置情報信号と、移動機番号と、在圏するゾーンの固有の識別番号であるゾーン番号とを、位置情報信号の受信時刻とともに記録し、コンピュータから出力することにより、警備日誌を作成するものが提供されている(例えば、特許文献1参照)。
特許文献1に記載の技術によれば、移動局装置が無線基地局の異なるゾーンに在圏するたびに、位置情報信号を送信するため、移動局装置がゾーンを移動した履歴を構内変換装置に接続されるコンピュータに蓄積することができる。これにより、更新された時刻情報を迅速且つ正確に警備日誌に反映することが可能であるといえる。
特開平11−146068号公報
しかしながら、特許文献1に記載の技術によれば、警備日誌の出力は、コンピュータが受信した位置情報信号に基づいて、移動機番号とゾーン番号と位置情報信号等を編集することにより行う。従って、場所と日時については正確であっても動作等については正確で緻密な文字情報を生成することができない虞れがある。
本発明は、上記に鑑みてなされたものであって、画像情報に基づき正確な文字情報を生成することができ、警備の品質向上を実現することが可能な、警備日誌作成装置及び警備日誌作成方法を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、撮像手段によって撮像された所定の領域における物体の画像情報を記憶する第1記憶手段と、物体の動作状態を表す情報であって、前記物体の動作の種類を表す動詞と前記物体の動作に関連する名詞である格要素とを含み、前記動詞と前記格要素との間の意味関係を示す深層格であって、少なくとも、前記物体の動作の種類を意味する行動名と、前記動作の主体を表す動作主格と、前記動作が開始された時刻である動作開始時刻と前記動作が終了した時刻である動作終了時刻とを表す時間格と、を深層格として有する深層格フレームを記憶可能な第2記憶手段と、前記画像情報を解析して物体の動作状態を抽出し、抽出した動作状態を表す前記行動名と前記動作主格と前記時間格とを生成して前記深層格フレームに登録する言語構造構築手段と、前記深層格フレームから、前記動作主格を取得し、前記行動名を動詞にするとともに、前記動作主格と、前記動作開始時刻と前記動作終了時刻とからなる前記時間格を時間情報とに基づいて、前記画像情報の要約を示す日誌を作成する日誌作成手段と、を備えたことを特徴とする。
本発明によれば、監視カメラによって撮影した画像情報から、動作状態等を抽出して深層格を作成し、深層格フレームから、前記動作主格を取得し、前記行動名を動詞にするとともに、前記動作主格と、前記動作開始時刻と前記動作終了時刻とからなる前記時間格を時間情報とに基づいて、前記画像情報の要約を示す日誌を作成することで、画像情報に基づいて正確に文字情報を生成することが可能となり、正確な情報を有する警備日誌を容易に得ることができるという効果を奏する。
また、本発明によれば、正確な日誌を作成することができるので、深層格フレームの格要素の文書キーワードとして用いることにより、必要に応じた画像検索を容易にし、警備の品質向上を実現することが可能となるという効果を奏する。
以下に添付図面を参照して、この発明にかかる日誌作成装置(警備装置)及び日誌作成方法の最良な実施の形態を詳細に説明する。なお、本発明はこれらの実施の形態に限定されるものではない。なお、以下では、監視カメラや各種センサからの情報を用いて所定領域を警備する警備装置130として日誌作成装置を実現した例について説明する。適用可能な装置は警備装置に限られず、画像情報を解析して深層格フレームを作成するとともに、深層格に基づいて自然言語文を生成し、要約文を作成する機能を備える装置であればあらゆる装置に適用できる。
(実施の形態1)
図1は、実施の形態1にかかる警備システム100の機能的構成を示すブロック図である。警備装置(日誌作成装置)130は、ネットワーク300を介して監視センタ200に接続されている。ネットワーク300は、電話回線、無線ネットワーク、インターネット等である。
本実施の形態における警備装置130は、警備対象である監視領域(不図示)を撮像する監視カメラ120によって撮像された監視領域の画像から、人物領域抽出処理等を行うことにより深層格を作成し、深層格に基づいて自然言語文を生成し、要約文を作成し、警備日誌を出力するものである。
監視センタ200は、監視領域の異常を検知した警備装置130からの通報を受け、待機中の警備員に対して異常が検知された監視領域(不図示)へ向かう旨の支持を出すとともに、必要に応じて警察や消防等の関係機関への通報を行うセンタである。
次に、警備装置(日誌作成装置)130の詳細について説明する。実施の形態1にかかる警備装置130は、センサ110と、監視カメラ120と、検知情報受信部131と、画像処理部132と、警備状態切換部133と、操作パネル制御部134と、操作パネル135と、出力部136と、送受信部137と、警備状態記憶部138と、言語構造構築部(言語構造構築手段)139と、警備日誌作成部(要約文作成手段)140と、映像データベース151を記憶する第1記憶部(第1記憶手段)150と、言語情報データベース161を記憶する第2記憶部(第2記憶手段)160とを主に備えている。
センサ110は、警備対象である監視領域に設置されており、主に侵入者等の異常を検知する目的で設置された人感センサであり、たとえば赤外線の受光量の変化をもとに人の存在を検出する赤外線センサ、赤外線等の受信が遮断されることで人の存在を検出する遮断センサ、電磁波の乱れで人の存在を検知する気配センサ、およびマグネットにより扉の開閉を検出するマグネットセンサなどの監視領域の異常を検出する各種センサが該当し、人の存在や扉の開閉を検知した場合に検知信号を出力する。
監視カメラ120は、警備対象である監視領域を撮像するものであり、主に監視領域として住居の出入口付近や敷地内への出入口付近に設置されている。
検知情報受信部131は、センサ110によって異常が検知された場合に送出される検知情報を受信する。検知情報は、センサ110から送出される検知信号であり、センサ110が複数設置されている場合は、検知信号およびセンサを識別するセンサIDである。
画像処理部132は、監視カメラ120によって撮像された画像を受信し、所定の画像処理を行って画像情報を生成し、画像データを映像データベース151に登録する。所定の画像処理とは、例えばγ補正処理や像域分離処理、フィルタ処理等である。
警備状態切替部133は、操作パネル制御部134によって受付けた警備状態を警備状態記憶部138に格納する。警備状態記憶部138は、現在の警備装置130の警備状態である警備モードまたは警備解除モードのいずれかを記憶する。
ここで、警備モードとは、センサ110が異常を検知して検知情報を取得した場合に、監視領域での異常を知らせる警報情報をネットワーク300で接続されている監視センタ200に送信する状態をいい、警備解除モードとは、上記検知情報を取得した場合でも異常を知らせる警報情報を監視センタ200に送信しない状態をいう。
操作パネル135は、警備装置130に関する情報が表示され、警備装置130に対して情報が入力される。操作パネル135は、ボタンの押下等によって警備モードまたは警備解除モードのいずれかの警備状態を入力する。操作パネル制御部134は、操作パネル135への表示情報の出力や、操作パネル135から入力された入力情報の取得等の操作パネル135に対する制御を行う。操作パネル135は、本発明にかかる警備設定手段を構成する。
送受信部137は、監視センタ200とネットワーク300を介して各種情報を送受信する。また、送受信部137は、センサ110から検知情報を受信した場合で、かつ警備状態記憶部138に記憶された現在の警備状態に警備モードが記憶されている場合に、警報情報を監視センタ200に送信する。
第1記憶部(第1記憶手段)150は、映像データベース151を記憶するメモリ、HDD等の記憶媒体である。映像データベース151は、画像処理部132によって生成された画像情報を蓄積するデータベースである。
第2記憶部(第2記憶手段)160は、言語情報データベース161を記憶するメモリ、HDD等の記憶媒体である。言語情報データベース161は、物体の動作状態を深層格フレーム構造で表した状態情報(格フレーム)を記憶する。深層格フレームとは、動詞を基準として、動詞に対する名詞の意味関係を深層格として表した言語構造をいう。
図2は、言語情報データベース161に記憶される深層格フレームのデータ構造の一例を示す図である。図2に示すように、深層格フレームは、格フレームを識別する格フレームIDと、動作(行動)の種類を表す行動名と、動作に関連する名詞である格要素(深層格)とを含んでいる。深層格には、主格、属性格、場所格、時間格、源泉格、目標格、対象格、および道具格が含まれる。
主格は、動作を引き起こす主体を表す。属性格は、主格に関する情報をいう。例えば、属性格は、身長高、体型、上半身色、下半身色、頭色、顔情報、および歩容情報等を含む。
顔情報および歩容情報は、さらに詳細な要素に分けられる。例えば、顔情報は、顔の特徴を表す顔特徴、視線方向、マスクの有無、サングラスの有無、性別、および年代などの要素を含む。また、歩容情報は、歩幅、姿勢、脚長、および歩速などの要素を含む。
場所格は、動作や状態が起こる場所を表す。例えば、場所格は、頭部位置、***置、手位置、顔位置、および脚部位置等を含む。
時間格は、動作や状態が起こる時間を表す。例えば、時間格は、現在時刻を表す時刻、動作が開始された時刻を表す動作開始時刻、動作が終了した時刻を表す動作終了時刻、および年月日等を表す。
源泉格は、移動や状態変化などの起点を表す。例えば、源泉格は、主格が移動や動作等を行う起点の位置を表す場所情報、および起点での主格の属性を表す属性情報を含む。
目標格は、移動や状態変化などの終点を表す。例えば、目標格は、主格が移動や動作等を行う終点の位置を表す場所情報、および起点での主格の属性を表す属性情報を含む。
対象格は、動作や状態の対象となる事物を表す。対象格は、固有の識別情報である対象ID、および固有の情報である属性情報を含む。
道具格は、動作の補助的手段を表す。道具格は、固有の識別情報である道具ID、および固有の情報である属性情報を含む。
なお、利用できる深層格はこれらに限られず、例えば精神的事象の経験者を表す経験者格などの、その他のあらゆる深層格を用いることができる。
図3は、実施の形態1にかかる言語情報データベース161に登録された深層格のデータ構造の一例を示す図である。図3は、人物A(主格)が、「しゃがむ」という行動を検出したときに生成される状態情報(格フレーム)の一例を示している。この場合、属性格には、人物Aの身長高、体型などの具体的な値が設定される。また、場所格および時間格には、それぞれ人物Aがしゃがんだときの位置や時刻に関する具体的な値が設定される。
図1に戻り、言語構造構築部139(言語構造構築手段)は、第1記憶部150に格納される映像データベース151から取得した画像情報を解析することにより、画像情報から物体の動作状態を検出する。また、言語構造構築部139は、検出した動作状態を表す行動名、動作主格等の深層格を生成し、深層格フレームを蓄積する言語情報データベース161に登録する。
言語構造構築部139は、例えば画像情報から人物領域を抽出することにより、人物が「存在する」という動作状態を検出する。また、言語構造構築部139は、検出した人物の視線方向を検出することにより、当該人物の「見る」という動作状態を検出する。また、言語構造構築部139は、人物以外の他の物体を画像情報から抽出し、抽出した物体が新たに現れた場合には「取り出す」という動作状態を、抽出した物体が以前から存在し、人物の手の位置と重なった場合には「触る」という動作状態を検出する。
なお、言語構造構築部139が人物または物体を抽出する方法としては、連続する画像情報の背景を比較することにより抽出した変動領域を人物領域とする方法や、人物パターンまたは物体パターンと照合することにより人物または物体を抽出する方法などの、従来から用いられているあらゆる方法を適用できる。また、言語構造構築部139が人物の視線方向を検出する方法としては、顔領域パターンと照合することにより顔領域を抽出するとともに視線方向を検出する方法などの従来から用いられているあらゆる方法を適用できる。
警備日誌作成部(日誌作成手段)140は、言語情報データベース161に蓄積される深層格フレーム(以下、「格フレーム」という。)から、行動名、動作主格、時間格等の深層格を取得する。そして、取得した深層格である行動名を動詞に設定し、動作主格を主語に設定することにより、自然言語文を生成して画像情報の要約文を作成し、要約文に動作開始時刻と動作終了時刻とからなる時間格を時間情報として付与することにより日誌を作成する。なお、警備日誌作成部140の警備日誌作成処理の手順については後述する。出力部136は、例えば液晶ディスプレイ(Liquid Crystal Display)等の出力装置である。出力部136は、警備日誌作成部140によって作成された、画像情報の要約文と、要約文に付与された時間情報とからなる警備日誌を画面上に表示し出力する。
次に、以上のように構成された本実施の形態にかかる警備装置130による画像からの動作検出処理について図4を用いて説明する。画像からの動作検出処理とは、監視カメラ120で撮影された画像情報から人物等の動作(行動)を検出する処理をいう。図4は、実施の形態1における画像からの動作検出処理の全体の流れを示すフローチャートである。
まず、画像処理部132は、監視カメラ120が撮影した画像を受信して画像処理を行うことにより画像情報を生成して入力する(ステップS401)。次に、言語構造構築部139は、画像情報から人物領域を検出し(ステップS402)、人物領域が検出されたか否かを判断する(ステップS403)。人物領域が検出されなかった場合は(ステップS403:No)、画像処理部132は次の画像情報を入力して処理を繰り返す(ステップS401)。
人物領域が検出された場合(ステップS403:Yes)、言語構造構築部139は、行動名=「存在する」の深層格フレームを作成する(ステップS404)。なお、作成した深層格フレームの格フレームIDには、他の深層格フレームと重複しない値を割り当てる。
次に、言語構造構築部139は、検出した人物領域の各部位の検出位置を場所格へ格納する(ステップS405)。例えば、言語構造構築部139は、検出した人物領域に含まれる頭部、体、手、顔、および脚部の座標を算出し、それぞれ頭部位置、***置、手位置、顔位置、および脚部位置として場所格に格納する。なお、人物領域の各部位は、部位ごとの照合パターンと照合して検出する方法などの従来から用いられているあらゆる方法により検出できる。
言語構造構築部139は、ステップS404〜ステップS405と並行して、人物同定処理(ステップS406〜ステップS407)、顔検出処理(ステップS408〜ステップS410)、体型判定処理(ステップS411〜ステップS412)、および歩容検出処理(ステップS413〜ステップS414)の各処理を実行する。なお、これらの各処理は必ずしも並行して処理する必要はなく、任意の順序で実行するように構成することができる。
人物同定処理では、言語構造構築部139は、抽出済みの人物領域と照合する方法などにより、抽出された人物を同定する(ステップS406)。そして、言語構造構築部139は、同定した人物に既に割り当てられている人物IDを、作成した深層格フレームの動作主格に格納する(ステップS407)。
なお、本実施の形態では、登録データベース(図示せず)等により監視領域の会社の社員や警備員等の人物IDと顔画像、氏名等を予め登録しており、人物同定処理ではこの登録データベースを参照して、抽出した人物の顔画像等から既に割り当てられた人物IDを深層格フレームの動作主格に格納している。この際、深層格フレームの動作主格には、人物IDの他氏名等も登録してもよい。この場合、単に「登録者1」等を深層格フレームの動作主格に格納するように構成してもよい。また、本実施の形態では、人物同定処理において、抽出した人物の顔画像等とこれに対応する人物IDが登録データベースに登録されていない場合には、「未登録者」の旨を深層格フレームの動作主格に格納する。
顔検出処理では、言語構造構築部139は、顔領域パターンと照合する方法などによって顔領域を検出する(ステップS408)。また、言語構造構築部139は、照合結果に応じて、視線方向、マスクの有無、およびサングラスの有無などの顔情報を属性格に格納する(ステップS409)。視線方向が検出された場合は、言語構造構築部139は、行動名=「見る」の深層格フレームを作成する(ステップS410)。
体型判定処理では、言語構造構築部139は、照合した人物パターンに予め付与された体型を求める方法などにより、検出した人物の体型を判定する(ステップS411)。そして、言語構造構築部139は、判定した体型を、作成した深層格フレームの属性格に格納する(ステップS412)。
歩容検出処理では、言語構造構築部139は、主に検出した人物領域の脚部を解析することにより、歩速、歩幅、脚長、姿勢などの歩容情報を検出する(ステップS413)。歩速は、例えば連続する画像情報の脚部の位置を比較することにより算出することができる。そして、言語構造構築部139は、検出した歩容情報を、作成した深層格フレームの属性格に格納する(ステップS414)。
次に、言語構造構築部139は、画像情報から物体を検出する(ステップS415)。なお、物体検出処理は、人物領域検出処理(ステップS402)とともに実行してもよい。
次に、言語構造構築部139は、物体が検出されたか否かを判断する(ステップS416)。物体が検出された場合(ステップS416:Yes)、言語構造構築部139は、物体が前の画像情報で検出されていたか否か、および物体と人物領域の位置関係に応じて、行動名=「触る」または「取り出す」の深層格フレームを作成する(ステップS417)。
具体的には、言語構造構築部139は、前の画像情報で検出された物体と照合することなどにより、物体が既に検出されていると判断でき、かつ、人物の手の位置と物体の位置とが重なると判断できる場合は、行動名=「触る」の深層格フレームを新たに作成する。また、言語構造構築部139は、未検出の物体が新たに検出されたと判断でき、かつ、人物の手の位置と物体の位置とが重なると判断できる場合は、行動名=「取り出す」の深層格フレームを新たに作成する。
ステップS416で物体が検出されなかったと判断された場合(ステップS416:No)、またはステップS417で新たな深層格フレームを作成後、言語構造構築部139は、これまでに作成した深層格フレームを言語情報データベース161に保存し(ステップS418)、画像からの動作検出処理を終了する。
次に、以上のように構成された本実施の形態にかかる警備装置130における警備日誌作成処理について図5〜7を用いて説明する。図5は、実施の形態1にかかる警備装置130における警備日誌作成処理の手順を示すフローチャートである。図6は、映像データベース151に記憶されている画像情報を示す図である。図7は、言語情報データベース161に保存された深層格フレームを示す図である。
図6に例示する画像情報は動画であって、人物Aが図6において左方から右方に向かって歩いて移動し、右方で停止し、振り向いて再び左方に向かって歩いて移動している状態を示している。言語構造構築部139は、図6で例示した画像情報に基づいて図4で説明した処理を行って深層格フレームを作成する。図7では、この画像情報に基づいて作成された深層格フレームを例示する。例えば、行動名「移動する」、動作主格は「未登録者」、属性格は、「身長高175cmの痩せ型」、源泉格「エレベータ」、目標格「玄関」、場所格の脚部位置「玄関」、時間格として動作開始時刻「2007年11月12日14時3分10秒」、動作終了時刻「2007年11月12日14時3分55秒」、副行動「振り向く」、副行動についての源泉格「θ0」、目標格「θ1」である。図5の説明において、図6の動画から図7の深層格フレームが生成されていることを前提に説明する。
警備日誌作成部140は、言語情報データベース161に登録されている上述の深層格フレームを読み込み(ステップS501)、動作主格、行動名、時間格、源泉格、目標格、場所格等の格要素に設定されているデータを取得する。次に、警備日誌作成部140は、取得した動作主格のデータを自然言語文の主語(A)に設定し(ステップS502)、行動名が「移動する」であるか否かを判断する(ステップS503)。取得した行動名が「移動する」であると判断された場合は、(ステップS503;Yes)、警備日誌作成部140は「移動した」を自然言語文の動詞に設定する(ステップS504)。次に、警備日誌作成部140は、動詞である移動の始点(P0)に源泉格のデータを設定し(ステップS505)、移動の終点(P1)に目標格のデータを設定する(ステップS506)。次に、警備日誌作成部140は、主語のデータ(A)、動詞「移動した」、動詞の始点のデータ(P0)、動詞の終点のデータ(P1)とを用いて、自然言語文「(A)が(P0)から(P1)に移動した」を、警備日誌用要約文として出力する(ステップS508)。次に、警備日誌作成部140は要約文の文頭に動作開始時刻と動作終了時刻とからなる時間格を時間情報として付与する(ステップS509)。
図8は、警備日誌用要約文の文頭に時間情報を付与した状態を示す説明図である。図8では、図6の動画から生成された図7に示す深層格フレームに基づき、図5のステップS501〜ステップS508の処理を行って作成された警備日誌用要約文と時間情報とを例示する。警備日誌用要約文「未登録者がエレベータから玄関に移動した」は、図8における右方に、動作開始時刻と動作終了時刻とからなる時間格は、動作が行われた日時と対応付けた時間情報として、図8における左方に表示してある。人物Aの上記動作は2007年11月12日14時3分10秒に開始され、同日14時3分55秒に終了するまで継続していたことが読み取れる。
図5に戻り、ステップS503において、取得した行動名が「移動する」でないと判断された場合には、(ステップS503;No)、次に、警備日誌作成部140は取得した行動名が「しゃがみ」であるか否かを判断する(ステップS511)。取得した行動名が「しゃがみ」であると判断された場合は(ステップS511;Yes)、警備日誌作成部140は「しゃがんだ」を自然言語文の動詞に設定する(ステップS512)。次に、「しゃがみ」が行われた場所(P2)に場所格の脚部位置のデータを設定する(ステップS513)。次に、警備日誌作成部140は、主語のデータ(A)、動詞「しゃがんだ」、動作場所のデータ(P2)とを用いて自然言語文「(A)が(P2)でしゃがんだ」を警備情報用要約文として出力する(ステップS515)。尚、ステップS511において、警備日誌作成部140が、取得した行動名が「しゃがみ」でないと判断した場合は(ステップS511;No)、動詞に設定すべき行動名を他の行動名から検索する。
上記のステップS501からS509までの処理は、すべての格フレームについて繰り返し実行される。そして、すべての格フレームについての上記処理が終了したら、警備日誌作成部140は、生成した警備日誌用要約文と時間情報とから成る警備日誌を表示装置や印刷装置などの出力装置に出力する(ステップS510)。
図9は、警備日誌の作成例を示す図である。図9では、図6の動画から生成された図7に示す深層格フレームに基づき、図5のステップS501〜ステップS515の処理を行って出力される警備日誌を例示している。警備日誌は、作成年月日毎に出力され、図9における上方に作成年月日の欄が設けてある。警備日誌用要約文「人物AがP0からP1に移動して振り向いた」は、図9の右方において、上方から時系列に表示される。時間情報は図9において左方に表示される。作成された警備日誌用要約文においては、必要に応じて深層格を用いたキーワード検索や画像検索が可能である。これにより、警備の品質を向上させることが可能となる。
なお、警備日誌作成部140は、図7に示す深層格フレームから属性格である身長高、体型、顔情報等を取得し、上述したステップS501〜S515の処理を行って、身長「175cm」、体型「痩せ型」顔情報「マスク無し、サングラス無し」等、動作主格Aの特徴を現す情報を主語「A」に付加した自然言語文を生成し、自然言語文から警備日誌用要約文を作成し、要約文の文頭に時間情報を付与することにより警備日誌を出力することとしてもよい。
また、警備日誌作成部140は、図7に示す深層格フレームから副行動を取得し、上述したステップS501〜S513の処理を行って、動詞「移動する」に副行動「振り向く」を付加した自然言語文を生成することとしてもよい。さらに、警備日誌作成部140は、図7に示す深層格フレームから、源泉格と目標格とを取得し、副行動「振り向く」について視線方向の始点「θ0」、視線方向の終点「θ1」を付加した自然言語文を生成し、自然言語文から警備日誌用要約文を作成し、要約文の文頭に時間情報を付与することにより警備日誌を出力することとしてもよい。
このように、実施の形態1にかかる警備装置130は、画像情報について、物体の動作の種類を意味する行動名や動作の主体を表す動作主格等である深層格を生成し、深層格に基づいて画像情報の要約文を生成し、要約文に時間情報を付与することにより警備日誌を作成するので、正確な情報を有する警備日誌を容易に得ることができる。また、本実施の形態によれば、正確な警備日誌を作成することができるので、画像情報に基づいて正確に文字情報を生成することが可能となる。また、本実施の形態によれば、正確な警備日誌を作成することができるので、深層格フレームの格要素の文書キーワードとして用いることにより、必要に応じた画像検索を容易にし、警備の品質向上を実現することが可能となる。
(実施の形態2)
実施の形態1の警備装置130では、監視カメラで撮像した監視領域の画像情報から監視領域内の人物の行動を記録した警備日誌を生成していたが、この実施の形態2では、かかる行動から不審者か否かを判断して、その判断結果を記録した警備日誌を生成している。
図10は、実施の形態2の警備装置の機能的構成を示すブロック図である。実施の形態2の警備装置1000は、図10に示すように、センサ110と、監視カメラ120と、検知情報受信部131と、画像処理部132と、警備状態切換部133と、操作パネル制御部134と、操作パネル135と、出力部136と、送受信部137と、警備状態記憶部138と、言語構造構築部139と、警備日誌作成部1040と、不審判定部190と、映像データベース151を記憶する第1記憶部150と、言語情報データベース161を記憶する第2記憶部160と、不審情報データベース1031を記憶する第3記憶部170とを主に備えている。
ここで、センサ110、監視カメラ120、検知情報受信部131、画像処理部132、警備状態切換部133、操作パネル制御部134、操作パネル135、出力部136、送受信部137、警備状態記憶部138、言語構造構築部139、映像データベース151、言語情報データベース161については実施の形態1と同様である。
不審情報データベース1031は、不審者の動作状態を表す行動パターンとして予め定められた不審情報を記憶する。図11は、不審情報データベース1031のデータ構造の一例を示す図である。図11に示すように、不審情報は、不審者の動作の種類を表す行動名と、不審者の動作に関連する深層格(格情報)と、当該深層格が満たすべき条件とを含んでいる。
図11の網掛け部は、行動名が「きょろきょろする」である場合であって、かつ場所格の***置が「玄関前」、すなわち、玄関前できょろきょろしている場合を不審者または不審行動として記憶している例を示している。
なお、不審情報データベース1031に記憶される行動名や、深層格の種類等は、予めユーザによって記憶される。また、第3記憶部170は、メモリ、HDD等の記憶媒体である。
図10に戻り、不審判定部190は、入力された格フレーム(状態情報)が不審情報データベース1031に登録されている不審情報に適合するか否かを判断することにより、入力された格フレームの行動が不審か否かを判定する。具体的には、不審判定部190は、警備日誌作成部1040から入力された格フレームから、格フレームの行動名が不審情報の行動名と一致し、かつ格フレームの格要素のうち不審情報の格情報に記載された格要素が不審情報の条件を満たす格フレームを検索する。そして、不審判定部1040は、条件を満たす格フレームの示す行動が不審であると判定する。
警備日誌作成部1040は、言語情報データベース161に蓄積される深層格フレームから、行動名、動作主格、属性格、時間格等の深層格を取得し、これらの各要素と不審判定部190の判定結果から警備日誌を生成するものである。
次に、以上のように構成された実施の形態2の警備装置1000による警備日誌の生成処理について説明する。図12は、実施の形態2の警備日誌生成処理の手順を示すフローチャートである。ここで、本実施の形態では、図14に示す形式の警備日誌が生成されるものとする。
警備日誌作成部1040は、言語情報データベース161に登録されている深層格フレームを読み込み(ステップS1201)、動作主格、属性格、行動名、時間格、源泉格、目標格、場所格等の格要素に設定されているデータを取得する。具体的には、属性格のデータとして具体的には、身長高、体型、顔情報の性別とサングラスの有無の各データを取得するそして、警備日誌作成部1040は、まず、図14に示す警備日誌の来訪者情報欄に、属性格のデータと動作主格のデータを設定する(ステップS1202)。これにより、図14に示すように、警備日誌には、動作主格のデータとして「A」等が、属性格のデータとして、身長、体型、性別、サングラスの有無のそれぞれが記録される。
次に、警備日誌作成部1040は、警備日誌の来訪者情報欄に、取得した行動名のデータを設定する(ステップS1203)。具体的には、警備日誌作成部1040は、図14に示すように、取得した行動名「不正解錠動作」と「をした」等の述語が警備日誌に記録される。なお、この行動名は、後述する不審行動と判定された場合にのみ警備日誌に記録して、不審行動でないと判定された場合には行動名の記録を行わないように構成してもよい。
次に、警備日誌作成部1040は、警備日誌の入館時刻欄に時間格のデータを設定する(ステップS1204)。そして、同一の動作主格の格フレームで行動名が退出動作の格フレームを検索し、検索された退出動作の格フレームの時間格を、警備日誌の退館時刻欄に設定する(ステップS1205)。これにより、図14に示すように、警備日誌の入館時刻欄と退館時刻欄にそれぞれ時刻が記録される。
次に、不審判定部190により、現在処理中の格フレームで示される行動が不審行動か否かを判定する不審判定処理を行う(ステップS1206)。図13は、不審判定処理の手順を示すフローチャートである。
不審判定部190は、現在処理中の格フレームを警備日誌作成部1040から入力し、この格フレームと一致する不審情報を不審情報データベース1031から検索する(ステップS1301)。具体的には、不審判定部190は、格フレームの行動名が不審情報の行動名と一致し、かつ格フレームの格要素のうち不審情報の格情報に記載された格要素が不審情報の条件を満たす格フレームを検索する。
そして、不審判定部190は、格フレームが不審情報と一致するか否かを判断する(ステップS1302)。そして、不審判定部190は、格フレームが不審情報と一致する場合には(ステップS1302:Yes)、不審行動と判定し(ステップS1303)、一致しない場合には(ステップS1302:No)、不審行動でない判定する(ステップS1304)。この判定結果は、警備日誌作成部1040に送出される。
図12に戻り、不審判定処理の判定結果を受け取った警備日誌作成部1040は、判定結果が不審行動か否かを調べる(ステップS1207)。そして、判定結果が不審行動である場合には(ステップS1207:Yes)、警備日誌作成部1040は、警備日誌の不審欄に「不審」を記録する(ステップS1208)。一方、判定結果が不審行動でない場合には(ステップS1207:No)、警備日誌作成部1040は、警備日誌の不審欄に不審行動でない旨を示す「−」を記録する(ステップS1213)。
以上のステップS1202からS1208,S1213までの処理を、読み込んだ全ての格フレームに対して実行する。これにより、格フレームごとに警備日誌の記録が生成されて記録されることになる。この結果、警備日誌に記録された格フレームごとの記録数が来訪者数に該当するので、そして、警備日誌作成部1040はこの記録数をカウントし、カウント数を警備日誌の来訪者人数欄に記録する(ステップS1209)。また、警備日誌作成部1040は、警備日誌における不審の記録数をカウントし、このカウント数を警備日誌の不審者人数欄に記録する(ステップS1210)。さらに、警備日誌作成部1040は、取得した時間格の年月日のデータを警備日誌の年月日欄に記録する(ステップS1211)。そして、このようにして生成された警備日誌を表示装置や印刷装置などの出力装置に出力する(ステップS1212)。これにより、図14に示す警備日誌が生成され、出力されることになる。
このように実施の形態2の警備装置1040では、かかる行動から不審者か否かを判断して、その判断結果を記録した警備日誌を生成しているので、実施の形態1と同様に、正確な情報を有する警備日誌を容易に得ることができる他、不審者か否かの情報も正確に記録することが可能となる。
なお、本実施の形態では、格フレームから時間格と動作主格の他、属性格のデータも取得して警備日誌を生成していたが、時間格と動作主格に設定されたデータのみを取得して、来訪者情報欄に動作主体のみを記録した警備日誌を生成するように警備日誌作成部1040を構成してもよい。図15は、来訪者情報欄に動作主体のみを記録した警備日誌の生成例を示す説明図である。図15に示す例では、来訪者情報欄に動作主体のみが記録されており、監視領域に来訪した者を特定すればよい場合に、警備日誌の生成処理を効率的に実現することができて便宜である。
また、本実施の形態で作成した複数日数分の警備日誌の来場者情報欄の動作主体の記録数および未登録者か否かの情報、不審欄の「不審」の記録数をそれぞれ日ごとに集計して、日ごとの来訪者数、登録者数、未登録者数、不審数の集計一覧を記録した警備日誌を生成するように警備日誌作成部1040を構成してもよい。
図16は、集計一覧を記録した警備日誌の例を示す説明図である。図16に示すように、警備日誌には、日ごとに集計して、日ごとの来訪者数、登録者数、未登録者数、不審数の集計一覧が記録されている。このような警備日誌を生成することにより、一定期間内における監視領域への来訪者の種類を容易に判別することが可能となる。なお、集計を週単位や月単位で行うように構成してもよく、あるいは曜日ごとに統計を取るように構成してもよい。
(実施の形態3)
実施の形態1および2の警備装置では、主として監視領域への来訪者の行動を記録した警備日誌を生成していたが、この実施の形態3では、監視領域を巡回する警備員たる巡回者の行動を記録した警備日誌を生成している。
図17は、実施の形態3の警備装置の機能的構成を示すブロック図である。実施の形態3の警備装置1700は、図17に示すように、センサ110と、監視カメラ120と、検知情報受信部131と、画像処理部132と、警備状態切換部133と、操作パネル制御部134と、操作パネル135と、出力部136と、送受信部137と、警備状態記憶部138と、言語構造構築部139と、警備日誌作成部1740と、映像データベース151を記憶する第1記憶部150と、言語情報データベース161を記憶する第2記憶部160とを主に備えている。
ここで、センサ110、監視カメラ120、検知情報受信部131、画像処理部132、警備状態切換部133、操作パネル制御部134、操作パネル135、出力部136、送受信部137、警備状態記憶部138、言語構造構築部139、映像データベース151、言語情報データベース161については実施の形態1と同様である。
本実施の形態の警備日誌作成部1740は、言語情報データベース161に登録された格フレーム(状態情報)から、監視領域を巡回する巡回者の行動を示す格フレームを抽出し、巡回者の行動を記録した警備日誌を生成するものである。
次に、以上のように構成された実施の形態3の警備日誌の生成処理について説明する。図18,19は、実施の形態3の警備日誌の生成処理の手順を示すフローチャートである。図20は、実施の形態3の警備装置により生成される警備日誌の一例を示す説明図である。
警備日誌作成部1740は、言語情報データベース161に登録されている深層格フレームを読み込み(ステップS1801)、動作主格、行動名、時間格、源泉格、目標格、場所格等の格要素に設定されているデータを取得する。次に、警備日誌作成部1740は、取得した動作主格のデータが巡回者の格フレームを全て抽出する(ステップS1802)。そして、警備日誌作成部1740は、行動名が「移動する」であるか否かを判断する(ステップS1803)。取得した行動名が「移動する」であると判断された場合は(ステップS1803;Yes)、警備日誌作成部1740は「巡回した」を自然言語文の動詞に設定する(ステップS1804)。次に、警備日誌作成部1740は、動詞である移動の始点(P0)に源泉格のデータを設定し(ステップS1805)、移動の終点(P1)に目標格のデータを設定する(ステップS1806)。次に、警備日誌作成部1740は、動詞「巡回した」、動詞の始点のデータ(P0)、動詞の終点のデータ(P1)とを用いて、自然言語文「(P0)から(P1)に巡回した」を、警備日誌用要約文として出力し、図20に示す警備日誌の来訪者情報欄に設定する(ステップS1808)。次に、警備日誌作成部140は、警備日誌の時刻欄に時間格に設定された時間情報を付与する(ステップS1809)。警備日誌作成部140は、警備日誌の行動記録欄に「巡回」を設定する(ステップS1810)。
図18、19に戻り、ステップS1803において、取得した行動名が「移動する」でないと判断された場合には、(ステップS1803;No)、次に、警備日誌作成部1740は取得した行動名が「しゃがみ」であるか否かを判断する(ステップS1811)。取得した行動名が「しゃがみ」であると判断された場合は(ステップS1811;Yes)、警備日誌作成部1740は「施錠した」を自然言語文の動詞に設定する(ステップS1812)。次に、「施錠した」場所(P2)に場所格の脚部位置のデータを設定する(ステップS1813)。次に、警備日誌作成部1740は、動詞「施錠した」、動作場所のデータ(P2)とを用いて自然言語文「(P2) 施錠した」を警備情報用要約文として生成し、警備日誌の来訪者情報欄に設定する(ステップS1815)。
一方、ステップS1811において、取得した行動名が「しゃがみ」でないと判断された場合には、(ステップS1811;No)、次に、警備日誌作成部1740は取得した行動名が「見る」であるか否かを判断する(ステップS1816)。取得した行動名が「見る」であると判断された場合は(ステップS1816;Yes)、警備日誌作成部1740は「確認した」を自然言語文の動詞に設定する(ステップS1817)。次に、「確認した」対象(P3)に対象格のデータを設定する(ステップS1818)。次に、警備日誌作成部1740は、動詞「確認した」、対象のデータ(P3)とを用いて自然言語文「(P3) 確認した」を警備情報用要約文として生成し、警備日誌の来訪者情報欄に設定する(ステップS1820)。
一方、ステップS1816において、取得した行動名が「見る」でないと判断された場合には、(ステップS1816;No)、警備日誌作成部1740は、自然言語文の場所(P4)に場所格のデータを設定する(ステップS1821)。次に、警備日誌作成部1740は、場所のデータ(P4)を用いて自然言語文「(P4)で待機」を警備情報用要約文として生成し、警備日誌の来訪者情報欄に設定する(ステップS1822)。また、警備日誌作成部1740は、警備日誌の行動記録欄に「待機」を設定する(ステップS1823)。
以上のステップS1803からS1810までの処理を、抽出した巡回者の格フレームの全てについて繰り返し実行する。そして、すべての巡回者の格フレームについての上記処理が終了したら、警備日誌作成部1740は、警備日誌を表示装置や印刷装置などの出力装置に出力する(ステップS1825)。
このように実施の形態3にかかる警備装置では、物体の動作の種類を意味する行動名や動作の主体を表す動作主格等である深層格から、監視領域を巡回する警備員たる巡回者の行動を記録した警備日誌を生成するので、巡回者である警備員の警備につき、正確な情報を有する警備日誌を容易に得ることができる。
なお、本発明は、上記実施の形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施の形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態にわたる構成要素を適宜組み合わせても良い。
実施の形態1にかかる警備システム100の構成を示すブロック図である。 実施の形態1にかかる言語情報データベース161に記憶される深層格のデータ構造の一例を示す図である。 実施の形態1にかかる言語情報データベース161に登録された深層格のデータ構造の一例を示す図である。 実施の形態1における画像からの動作検出処理の全体の流れを示すフローチャートである。 実施の形態1にかかる警備装置における警備日誌作成処理の手順を示すフローチャートである。 映像データベース151に記憶されている画像情報を示す図である。 言語情報データベース161に保存された深層格フレームを示す図である。 警備日誌用要約文の文頭に時間情報を付与した状態を示す説明図である。 実施の形態1の警備日誌の作成例を示す図である。 実施の形態2の警備装置の機能的構成を示すブロック図である。 不審情報データベース1031のデータ構造の一例を示す図である。 実施の形態2の警備日誌生成処理の手順を示すフローチャートである。 不審判定処理の手順を示すフローチャートである。 実施の形態2の警備日誌の一例を示す説明図である。 来訪者情報欄に動作主体のみを記録した警備日誌の生成例を示す説明図である。 集計一覧を記録した警備日誌の例を示す説明図である。 実施の形態3の警備装置の機能的構成を示すブロック図である。 、実施の形態3の警備日誌の生成処理の手順を示すフローチャートである。 実施の形態3の警備日誌の生成処理の手順を示す図18の続きのフローチャートである。 実施の形態3の警備装置により生成される警備日誌の一例を示す説明図である。
符号の説明
100,1000,1700 警備システム
110 センサ
120 監視カメラ
130,1030,1730 警備装置
131 検知情報受信部
132 画像処理部
133 警備状態切替部
134 操作パネル制御部
135 操作パネル
136 出力部
137 送受信部
138 警備状態記憶部
139 言語構造構築部
140,1040,1740 警備日誌作成部
150 第1記憶部
151 映像データベース
160 第2記憶部
161 言語情報データベース
170 第3記憶部
1031 不審情報データベース
190 不審判定部
200 監視センタ
300 ネットワーク

Claims (10)

  1. 撮像手段によって撮像された所定の領域における物体の画像情報を記憶する第1記憶手段と、
    物体の動作状態を表す情報であって、前記物体の動作の種類を表す動詞と前記物体の動作に関連する名詞である格要素とを含み、前記動詞と前記格要素との間の意味関係を示す深層格であって、少なくとも、前記物体の動作の種類を意味する行動名と、前記動作の主体を表す動作主格と、前記動作が開始された時刻である動作開始時刻と前記動作が終了した時刻である動作終了時刻とを表す時間格と、を深層格として有する深層格フレームを記憶可能な第2記憶手段と、
    前記画像情報を解析して物体の動作状態を抽出し、抽出した動作状態を表す前記行動名と前記動作主格と前記時間格とを生成して前記深層格フレームに登録する言語構造構築手段と、
    前記深層格フレームから、前記動作主格を取得し、前記行動名を動詞にするとともに、前記動作主格と、前記動作開始時刻と前記動作終了時刻とからなる前記時間格を時間情報とに基づいて、前記画像情報の要約を示す日誌を作成する日誌作成手段と、
    を備えたことを特徴とする日誌作成装置。
  2. 前記日誌作成手段は、前記深層格フレームから、前記行動名と前記動作主格と前記時間格とを取得し、前記行動名を動詞にするとともに、前記動作主格を主語にした自然言語文を生成することにより、前記画像情報の要約文を作成し、前記要約文に前記動作開始時刻と前記動作終了時刻とからなる前記時間格を時間情報として付与することにより日誌を作成することを特徴とする請求項1に記載の日誌作成装置。
  3. 前記深層格フレームは、さらに、前記動作が開始された位置を表す源泉格と、前記動作が終了された位置を表す目標格とを深層格として有し、
    前記言語構造構築手段は、さらに、前記源泉格と前記目標格とを生成して前記深層格フレームに登録し、
    前記日誌作成手段は、さらに、前記深層格フレームから前記源泉格と前記目標格とを取得し、前記行動名が移動を示す場合に、前記移動の始点を前記源泉格とし、前記移動の終点を前記目標格とした自然言語文を生成することにより、前記画像情報の要約文を作成すること、を特徴とする請求項2に記載の日誌作成装置。
  4. 前記深層格フレームは、さらに、前記動作が行われた場所である場所格を深層格として有し、
    前記言語構造構築手段は、さらに、前記場所格を生成して前記深層格フレームに登録し、
    前記日誌作成手段は、さらに、前記深層格フレームから前記場所格を取得し、前記行動名がしゃがみを示す場合に、しゃがんだ場所を前記場所格とした自然言語文を生成することにより、前記画像情報の要約文を作成すること、を特徴とする請求項2に記載の日誌作成装置。
  5. 前記第2記憶手段は、さらに、前記動作主格の身長高、体型、顔情報等を表す属性格を深層格として有する深層格フレームを記憶可能であって、
    前記言語構造構築手段は、さらに、前記属性格を生成して前記深層格フレームに登録し、
    前記日誌作成手段は、さらに、前記深層格フレームから前記属性格を取得し、前記動作主格の身長、体型、顔情報等を前記属性格とした自然言語文を生成することにより、前記画像情報の要約文を作成すること、を特徴とする請求項2〜4のいずれか1つに記載の日誌作成装置。
  6. 前記第2記憶手段は、動作の種類が複数ある場合に、主たる動作に付随して行われる動作である副行動を深層格として有する深層格フレームを記憶可能であって、
    前記言語構造構築手段は、さらに、前記副行動を生成して前記深層格フレームに登録し、
    前記日誌作成手段は、さらに、前記深層格フレームから前記副行動を取得し、前記行動名と前記副行動とを前記動詞とした自然言語文を生成することにより、前記画像情報の要約文を作成すること、を特徴とする請求項2〜5のいずれか1つに記載の日誌作成装置。
  7. 前記深層格フレームは、さらに、前記動作が開始された位置を表す源泉格と、前記動作が終了された位置を表す目標格とを深層格として有し、
    前記言語構造構築手段は、さらに、前記源泉格と前記目標格とを生成して前記深層格フレームに登録し、
    前記日誌作成手段は、さらに、前記深層格フレームから前記源泉格と前記目標格とを取得し、前記副行動が振り向くを示す場合に、前記副行動の始点を前記源泉格とし、前記副行動の終点を前記目標格とした自然言語文を生成することにより、前記画像情報の要約文を作成すること、を特徴とする請求項6に記載の日誌作成装置。
  8. 不審者の動作状態として予め定められた情報であって、前記不審者の動作の種類を表す動詞と、前記不審者の動作に関連する名詞である格要素に関する条件とを含む不審情報を記憶する不審情報記憶手段と、
    前記状態情報に含まれる動詞が前記不審情報に含まれる動詞と一致し、かつ、前記状態情報に含まれる格要素が前記不審情報に含まれる前記条件を満たす前記状態情報を不審行動であると判定する判定手段と、を更に備え、
    前記日誌作成手段は、さらに、前記判定手段によって前記状態情報が不審行動であると判定された場合に、前記要約文に前記不審行動である旨を対応付けて付与することにより前記日誌を作成することを特徴とする請求項1〜7のいずれか1つに記載の日誌作成装置。
  9. 前記日誌作成手段は、前記深層格フレームから、前記動作主格が巡回者である前記深層格フレームを抽出し、抽出された前記深層格フレームから、前記行動名と前記時間格とを取得し、前記行動名を動詞にした自然言語文を生成することにより、前記画像情報の要約文を作成し、前記要約文に前記動作開始時刻と前記動作終了時刻とからなる前記時間格を時間情報として付与することにより日誌を作成することを特徴とする請求項1に記載の日誌作成装置。
  10. 撮像手段によって撮像された所定の領域における物体の画像情報の要約文を作成することにより日誌を作成する日誌作成装置で実行される日誌作成方法であって、
    前記日誌作成装置は、
    前記画像情報を記憶する第1記憶手段と、
    物体の動作状態を表す情報であって、前記物体の動作の種類を表す動詞と前記物体の動作に関連する名詞である格要素とを含み、前記動詞と前記格要素との間の意味関係を示す深層格であって、少なくとも、前記物体の動作の種類を意味する行動名と、前記動作の主体を表す動作主格と、前記動作が開始された時刻である動作開始時刻と前記動作が終了した時刻である動作終了時刻とを表す時間格と、を深層格として有する深層格フレームを記憶可能な第2記憶手段と、を備え、
    前記画像情報を解析して物体の動作状態を抽出し、抽出した動作状態を表す前記行動名と前記動作主格と前記時間格とを生成して前記深層格フレームに登録する言語構造構築ステップと、
    前記深層格フレームから、前記動作主格を取得し、前記行動名を動詞にするとともに、前記動作主格と、前記動作開始時刻と前記動作終了時刻とからなる前記時間格を時間情報とに基づいて、前記画像情報の要約を示す日誌を作成する日誌作成ステップと、
    を含むことを特徴とする日誌作成方法。
JP2008053508A 2008-03-04 2008-03-04 日誌作成装置及び日誌作成方法 Pending JP2009211389A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008053508A JP2009211389A (ja) 2008-03-04 2008-03-04 日誌作成装置及び日誌作成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008053508A JP2009211389A (ja) 2008-03-04 2008-03-04 日誌作成装置及び日誌作成方法

Publications (1)

Publication Number Publication Date
JP2009211389A true JP2009211389A (ja) 2009-09-17

Family

ID=41184466

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008053508A Pending JP2009211389A (ja) 2008-03-04 2008-03-04 日誌作成装置及び日誌作成方法

Country Status (1)

Country Link
JP (1) JP2009211389A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102509328A (zh) * 2011-09-30 2012-06-20 中兴通讯股份有限公司 日记文件生成方法和装置
JP2020115246A (ja) * 2019-01-17 2020-07-30 日本電気株式会社 生成装置、ソフトウェアロボットシステム、生成方法及び生成プログラム
JP2020123208A (ja) * 2019-01-31 2020-08-13 Necプラットフォームズ株式会社 制御装置、処理システム、制御方法、及び制御プログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004280376A (ja) * 2003-03-14 2004-10-07 Japan Science & Technology Agency 被写体の行動認識方法及び装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004280376A (ja) * 2003-03-14 2004-10-07 Japan Science & Technology Agency 被写体の行動認識方法及び装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6012048789; 小島篤博: '映像中の人物行動の認識とその自然言語記述に関する研究' 大阪府立大学博士論文 , 200307 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102509328A (zh) * 2011-09-30 2012-06-20 中兴通讯股份有限公司 日记文件生成方法和装置
JP2020115246A (ja) * 2019-01-17 2020-07-30 日本電気株式会社 生成装置、ソフトウェアロボットシステム、生成方法及び生成プログラム
JP2020123208A (ja) * 2019-01-31 2020-08-13 Necプラットフォームズ株式会社 制御装置、処理システム、制御方法、及び制御プログラム

Similar Documents

Publication Publication Date Title
JP7405200B2 (ja) 人物検出システム
JP2009252215A (ja) 警備装置および情報表示方法
US7006672B2 (en) Entrance management apparatus and entrance management method
JP2021515945A (ja) 画像処理方法及び装置、電子機器並びに記憶媒体
JP6124223B2 (ja) 事件映像ログデータ生成装置、事件映像処理システム、事件映像ログデータ生成方法、及びプログラム
JP2016208127A (ja) 事件映像処理装置、事件映像処理システム、事件映像処理方法、及びプログラム
US20160350583A1 (en) Image search system and image search method
JP2006221355A (ja) 監視装置及び監視システム
JP2005136691A (ja) 画像管理システム
JP2010128594A (ja) 動作検出装置および動作検出方法
JP2008160354A (ja) 映像出力装置
JP2006163456A (ja) 入退室管理装置
JP2009211389A (ja) 日誌作成装置及び日誌作成方法
JP2024056872A (ja) 滞在管理装置、滞在管理方法、及びプログラム
AU2014371881B2 (en) Mobile terminal, work information management system, work information management method, work information management program, communication device, information management system, information management method, and information management program
JP4018967B2 (ja) 記録映像自動生成システム,記録映像自動生成方法,記録映像自動生成プログラムおよび記録映像自動生成プログラムの記録媒体
JP2009075916A (ja) 人物捜索システム及び人物捜索方法
KR101429962B1 (ko) 기억 회상용 데이터 처리 시스템 및 그 방법
JP5730000B2 (ja) 顔照合システム、顔照合装置及び顔照合方法
JP5188840B2 (ja) 警備装置および更新方法
JP2010170212A (ja) 行動推定装置および方法
CN111754655A (zh) 一种区域访问管理方法、***及计算机可读存储介质
JP5227046B2 (ja) 動作検出装置および動作検出方法
JP4944818B2 (ja) 検索装置および検索方法
JP2009201014A (ja) 要約文作成装置及び要約文作成方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120918

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130205