JP4797720B2 - 監視装置および方法、画像処理装置および方法、並びにプログラム - Google Patents

監視装置および方法、画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP4797720B2
JP4797720B2 JP2006071676A JP2006071676A JP4797720B2 JP 4797720 B2 JP4797720 B2 JP 4797720B2 JP 2006071676 A JP2006071676 A JP 2006071676A JP 2006071676 A JP2006071676 A JP 2006071676A JP 4797720 B2 JP4797720 B2 JP 4797720B2
Authority
JP
Japan
Prior art keywords
approaching
approaching person
posture
image
monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006071676A
Other languages
English (en)
Other versions
JP2007251556A (ja
Inventor
丹一 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2006071676A priority Critical patent/JP4797720B2/ja
Publication of JP2007251556A publication Critical patent/JP2007251556A/ja
Application granted granted Critical
Publication of JP4797720B2 publication Critical patent/JP4797720B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は監視装置および方法、画像処理装置および方法、並びにプログラムに関し、特に、監視の対象であるものの周囲の状況をより正確に通知できるようにした監視装置および方法、画像処理装置および方法、並びにプログラムに関する。
近年、車両の盗難事故件数は増加傾向にあり、その対策として様々な車両監視システムが提案されている。
例えば、従来の車両監視システムには、車両に設置された監視装置において盗難予備行為、すなわち車両における異状が検知されると、通信網を介して監視装置に接続されているセンタ装置から利用者の携帯電話機に、車両において異状が検知された旨の警戒情報が送信されるものもある(例えば、特許文献1参照)。
この車両監視システムにおいては、監視装置において異状が検知されると、監視装置からセンタ装置に検知された異状を示す盗難予備行為情報が送信され、センタ装置において、盗難予備行為情報に基づいて、携帯電話機に警戒情報を送信するか否かの判定が行われる。
特開2002−304686号公報
しかしながら、上述した技術においては、利用者が所有する携帯電話機には、車両において異状が検知された旨のメッセージが表示されるか、または予め用意された車両の周囲の状況を示すいくつかの画像のうちのいずれかが表示されるだけであった。そのため、利用者には、車両の周囲に人が接近した、車両に人が進入したといった程度の情報が提示されるだけであり、利用者は、監視の対象である車両の周囲の状況を正確に知ることができなかった。
したがって、例えば、車両に人が接近した場合、利用者には、車両への人の接近が検知された旨の情報が提示されるだけであるので、利用者は提示された情報だけでは、車両に接近した人が車両付近を通過する通行人であるのか、または車両に進入しようとしたり、車両を窃盗しようとしたりする悪意のある不審者であるのかを判断することができず、ストレスが溜まってしまう恐れがあった。
また、車両の周囲の状況をより正確に利用者に通知するために、監視装置が車両の周囲の画像を撮影し、センタ装置が利用者の携帯電話機に撮影された画像を送信することもできるが、そのような場合、送信される画像はそのデータ量が多いので、利用者が携帯電話機の使用、すなわち携帯電話機とセンタ装置との通信の対価として支払う通信料が高くなってしまい現実的ではなかった。
本発明は、このような状況に鑑みてなされたものであり、より正確に監視の対象となるものの周囲の状況を把握できるようにするものである。
本発明の第1の側面の監視装置は、監視対象であるものの周囲の領域である監視領域を撮影する撮影手段と、前記ものに接近する接近者の前記ものへの接近、または前記接近者の前記ものへの接触を監視する監視手段と、撮影された前記監視領域の画像に基づいて、前記接近者の姿勢を検出し、前記接近者の姿勢を示す姿勢情報を生成する姿勢検出手段と、前記監視手段による監視結果、および前記画像に基づいて、前記接近者の前記ものに対する位置を検出し、その位置を示す位置情報を生成する位置検出手段と、前記姿勢情報および前記位置情報からなる、前記接近者の姿勢および前記ものに対する位置を示す検出データを送信する送信手段とを備える。
本発明の第1の側面の監視装置においては、監視対象であるものの周囲の領域である監視領域が撮影され、前記ものに接近する接近者の前記ものへの接近、または前記接近者の前記ものへの接触が監視され、撮影された前記監視領域の画像に基づいて、前記接近者の姿勢が検出されて前記接近者の姿勢を示す姿勢情報が生成され、監視結果、および前記画像に基づいて、前記接近者の前記ものに対する位置が検出されてその位置を示す位置情報が生成され、前記姿勢情報および前記位置情報からなる、前記接近者の姿勢および前記ものに対する位置を示す検出データが送信される。
したがって、より正確に監視対象の周囲の状況を把握するための接近者の姿勢や位置が含まれる検出データを送信することができる。
この監視装置の撮影手段は、例えば、CCD(Charge Coupled Device)撮像素子、CMOS(Complementary Metal Oxide Semiconductor)撮像素子、対数変換型撮像素子などが利用されたカメラにより構成される。また、監視手段は、例えば、ドップラセンサ、赤外線センサ、加速度センサ、静電容量式センサ、電波式センサなどの各種のセンサから構成される。さらに、姿勢検出手段、位置検出手段、および送信手段は、例えば、CPU(Central Processing Unit)により構成される。
本発明の第2の側面の監視装置は、監視対象であるものの周囲の領域である監視領域を撮影する撮影手段と、前記ものに接近する接近者の前記ものへの接近、または前記接近者の前記ものへの接触を監視する監視手段と、撮影された前記監視領域の画像に基づいて、前記接近者の姿勢を検出し、前記接近者の姿勢を示す姿勢情報を生成する姿勢検出手段と、前記監視手段による監視結果、または前記画像に基づいて、前記接近者の前記ものに対する位置を検出し、その位置を示す位置情報を生成する位置検出手段と、前記姿勢情報および前記監視結果に基づいて、前記接近者が行った行為を推定し、その行為を示す行為情報を生成する行為推定手段と、前記姿勢情報、前記位置情報、および前記行為情報からなる、前記接近者の姿勢および前記ものに対する位置を示す検出データを送信する送信手段とを備える。
本発明の第2の側面の監視装置においては、監視対象であるものの周囲の領域である監視領域が撮影され、前記ものに接近する接近者の前記ものへの接近、または前記接近者の前記ものへの接触が監視され、撮影された前記監視領域の画像に基づいて、前記接近者の姿勢が検出され、前記接近者の姿勢を示す姿勢情報が生成され、前記監視結果、または前記画像に基づいて、前記接近者の前記ものに対する位置が検出され、その位置を示す位置情報が生成され、前記姿勢情報および前記監視結果に基づいて、前記接近者が行った行為が推定され、その行為を示す行為情報が生成され、前記姿勢情報、前記位置情報、および前記行為情報からなる、前記接近者の姿勢および前記ものに対する位置を示す検出データが送信される。
これにより、接近者が行った行為をより正確に把握するための行為情報が含まれる検出データを送信することができる。
この監視装置の撮影手段は、例えば、CCD撮像素子、CMOS撮像素子、対数変換型撮像素子などが利用されたカメラにより構成される。また、監視手段は、例えば、ドップラセンサ、赤外線センサ、加速度センサ、静電容量式センサ、電波式センサなどの各種のセンサから構成される。さらに、姿勢検出手段、位置検出手段、行為推定手段、および送信手段は、例えば、CPUにより構成される。
監視装置には、前記画像を用いて前記接近者の顔を認識し、前記接近者を特定する顔認識手段をさらに設け、前記送信手段には、特定された前記接近者を示す個人IDが含まれる前記検出データを送信させることができる。
これにより、接近者を特定する個人IDが含まれる前記検出データを送信することができる。
この顔認識手段は、例えば、CPUにより構成される。
監視装置には、前記接近者の顔の向きまたは視線の向きを検出する顔方向検出手段をさらに設け、前記姿勢検出手段には、前記顔方向検出手段による検出結果および前記画像に基づいて、前記接近者の姿勢を検出させることができる。
これにより、より正確に接近者の姿勢を検出することができる。
この顔方向検出手段は、例えば、CPUにより構成される。
本発明の第1の側面の監視方法またはプログラムは、監視対象であるものの周囲の領域である監視領域を撮影する撮影ステップと、前記ものに接近する接近者の前記ものへの接近、または前記接近者の前記ものへの接触を監視する監視ステップと、撮影された前記監視領域の画像に基づいて、前記接近者の姿勢を検出して前記接近者の姿勢を示す姿勢情報を生成する姿勢検出ステップと、前記接近者の前記ものへの接近、若しくは前記接近者の前記ものへの接触の監視結果、および前記画像に基づいて、前記接近者の前記ものに対する位置を検出してその位置を示す位置情報を生成する位置検出ステップと、前記姿勢情報および前記位置情報からなる、前記接近者の姿勢および前記ものに対する位置を示す検出データを送信する送信ステップとを含む。
本発明の第1の側面の監視方法またはプログラムにおいては、監視対象であるものの周囲の領域である監視領域が撮影され、前記ものに接近する接近者の前記ものへの接近、または前記接近者の前記ものへの接触が監視され、撮影された前記監視領域の画像に基づいて、前記接近者の姿勢が検出されて前記接近者の姿勢を示す姿勢情報が生成され、前記接近者の前記ものへの接近、若しくは前記接近者の前記ものへの接触の監視結果、および前記画像に基づいて、前記接近者の前記ものに対する位置が検出されてその位置を示す位置情報が生成され、前記姿勢情報および前記位置情報からなる、前記接近者の姿勢および前記ものに対する位置を示す検出データが送信される。
したがって、より正確に監視対象の周囲の状況を把握するための接近者の姿勢や位置が含まれる検出データを送信することができる。
この撮影ステップは、例えば、カメラなどの撮像手段により監視領域を撮影する撮影ステップにより構成され、監視ステップは、例えば、センサなどにより、監視対象への接近者や、接近者の監視対象への接近または接触などを検出する監視ステップから構成され、姿勢検出ステップは、例えば、撮影された画像に基づいて接近者の姿勢をCPUにより検出する姿勢検出ステップにより構成される。また、位置検出ステップは、例えば、監視ステップにおける監視結果、および撮影された監視領域の画像に基づいて、接近者の監視対象に対する位置をCPUにより検出する位置検出ステップにより構成され、送信ステップは、例えば、姿勢情報および位置情報からなる接近者の姿勢および監視対象に対する位置を示す検出データをCPUにより送信する送信ステップとから構成される。
本発明の第3の側面の画像処理装置は、監視対象であるものに接近する接近者の姿勢を示す姿勢情報、および前記接近者の前記ものに対する位置を示す位置情報からなる検出データを受信する受信手段と、前記検出データに基づいて、前記もの、および前記姿勢情報により示される姿勢の前記接近者の画像であって、前記接近者の前記ものへの接近を通知する画像を生成する生成手段と、生成された前記画像を表示する表示手段とを備え、前記生成手段は、前記接近者を示す個人IDが含まれる前記検出データに基づいて、前記画像における前記接近者の顔の部分に、予め記録している前記個人IDに関係付けられた顔の画像が表示されるように、前記接近者の前記ものへの接近を通知する前記画像を生成する
本発明の第3の側面の画像処理装置においては、監視対象であるものに接近する接近者の姿勢を示す姿勢情報、および前記接近者の前記ものに対する位置を示す位置情報からなる検出データが受信され、前記検出データに基づいて、前記もの、および前記姿勢情報により示される姿勢の前記接近者の画像であって、前記接近者の前記ものへの接近を通知する画像が生成され、生成された前記画像が表示される。また、前記接近者を示す個人IDが含まれる前記検出データに基づいて、前記画像における前記接近者の顔の部分に、予め記録している前記個人IDに関係付けられた顔の画像が表示されるように、前記接近者の前記ものへの接近を通知する前記画像が生成される。
したがって、監視対象の周囲の状況をより正確に把握することができる。
この受信手段および生成手段は、例えば、CPUにより構成され、表示手段は、例えば、LCD(Liquid Crystal Display)、CRT(Cathode Ray Tube)、プラズマディスプレイなどにより構成される。
前記生成手段には、2次元または3次元の前記画像を生成させることができる。
これにより、監視対象の周囲の状況をより正確に把握できる画像を表示することができる。
前記生成手段には、各時刻における前記姿勢情報および前記位置情報からなる前記検出データに基づいて、前記接近者の位置および姿勢の変化をアニメーション表示させるための前記画像を生成させることができる。
これにより、接近者の軌跡を正確に把握することができる画像を表示することができる。
前記生成手段には、前記接近者が行った行為を示す行為情報が含まれる前記検出データに基づいて、前記画像を生成させることができる。
これにより、接近者が行った行為を正確に把握することができる画像を表示することができる。
本発明の第3の側面の画像処理方法またはプログラムは、監視対象であるものに接近する接近者の姿勢を示す姿勢情報、および前記接近者の前記ものに対する位置を示す位置情報からなる検出データを受信する受信ステップと、前記検出データに基づいて、前記もの、および前記姿勢情報により示される姿勢の前記接近者の画像であって、前記接近者の前記ものへの接近を通知する画像を生成する生成ステップと、生成された前記画像を表示する表示ステップとを含み、前記生成ステップにおいて、前記接近者を示す個人IDが含まれる前記検出データに基づいて、前記画像における前記接近者の顔の部分に、予め記録している前記個人IDに関係付けられた顔の画像が表示されるように、前記接近者の前記ものへの接近を通知する前記画像を生成する
本発明の第3の側面の画像処理方法またはプログラムにおいては、監視対象であるものに接近する接近者の姿勢を示す姿勢情報、および前記接近者の前記ものに対する位置を示す位置情報からなる検出データが受信され、前記検出データに基づいて、前記もの、および前記姿勢情報により示される姿勢の前記接近者の画像であって、前記接近者の前記ものへの接近を通知する画像が生成され、生成された前記画像が表示される。また、前記接近者を示す個人IDが含まれる前記検出データに基づいて、前記画像における前記接近者の顔の部分に、予め記録している前記個人IDに関係付けられた顔の画像が表示されるように、前記接近者の前記ものへの接近を通知する前記画像が生成される。
したがって、監視対象の周囲の状況をより正確に把握することができる。
この受信ステップは、例えば、姿勢情報および位置情報からなる検出データをCPUにより受信する受信ステップにより構成され、生成ステップは、例えば、受信された検出データに基づいて、監視対象、および姿勢情報により示される姿勢の接近者の画像をCPUにより生成する生成ステップにより構成され、表示ステップは、例えば、LCD、CRT、プラズマディスプレイなどに生成ステップにおいて生成された画像を表示する表示ステップにより構成される。
本発明の第1の側面および第2の側面によれば、監視対象に接近する接近者を検出することができる。特に、本発明の第1の側面および第2の側面によれば、より正確に監視対象の周囲の状況を把握するための検出データを送信することができる。
また、本発明の第3の側面によれば、画像を表示することができる。特に、本発明の第3の側面によれば、監視対象の周囲の状況をより正確に把握することができる。
以下、図面を参照して本発明を適用した実施の形態について説明する。
図1は、本発明を適用した監視システムの一実施の形態の構成例を示している。この監視システムは、監視装置11、センタ装置12、および端末装置13から構成され、監視装置11、センタ装置12、および端末装置13は、ネットワーク14を介して互いに接続されている。
監視装置11は、監視する対象であるもの(以下、監視対象と称する)を盗難、破壊、進入などの被害から保護するために、監視対象に接近する人(以下、接近者と称する)、監視対象への不審行為を監視する。
例えば、監視装置11が監視する対象となるものは、動産、不動産を問わず、建物、部屋、オフィス、店舗、事務所、車両、倉庫、ロッカー、家財、動物、農作物などとすることができる。また、監視対象に対する不審行為としては、例えば、人体に対する危害行為、ストーカー行為、嫌がらせ、盗難、破壊、放火、不正侵入などとされる。
監視装置11は、監視対象に接近する接近者を検出し、検出した接近者を特定する個人ID(Identification)、接近者の姿勢を示す姿勢情報、接近者が行っている行為を示す行為情報、および接近者の監視対象に対する位置を示す位置情報からなる検出データを生成する。そして、監視装置11は、生成した検出データを監視の結果を示すデータとして、ネットワーク14を介してセンタ装置12に送信する。
ここで、ネットワーク14は、例えば、インターネット、LAN(Local Area Network)、WAN(Wide Area Network)、または公衆回線網等に代表される、有線または無線からなる、1つまたは複数のネットワークにより構成される。
センタ装置12は、監視装置11から送信されてきた検出データを受信して記録する。また、センタ装置12は、監視装置11から検出データを受信すると、検出データを受信した旨の受信通知をネットワーク14を介して端末装置13に送信する。さらに、センタ装置12は、端末装置13からの要求に応じて、監視装置11から受信した検出データを、ネットワーク14を介して端末装置13に送信する。
端末装置13は、例えば、コンピュータ、携帯情報端末装置、携帯電話機などの情報処理端末装置から構成される。端末装置13は、センタ装置12から送信されてくる受信通知を受信して、その受信通知を表示する。
また、端末装置13は、利用者の操作に応じて検出データの受信が指示されると、センタ装置12から検出データを受信し、受信した検出データに基づいて監視対象および接近者の画像(以下、通知画像と称する)を表示する。なお、この通知画像には、監視対象とともに、位置情報により示される位置に、姿勢情報により示される姿勢の接近者が表示される。
したがって、監視システムにおいては、端末装置13を所有する利用者は、通知画像を確認することによって監視対象の周囲の状況を正確に把握することができる。これにより、利用者は、接近者が監視対象の付近を通過する通行人であるのか、または監視対象に不審行為を行う不審者であるのかを容易に判断することができる。
なお、以下においては、監視装置11が監視対象としての車両内に設置される例について説明するが、上述したように監視対象は車両に限られる訳ではない。
監視装置11は、例えば、車両のダッシュボードや天井に設置され、車両に接近する接近者を監視する。図2は、監視装置11の構成例を示すブロック図である。
監視装置11は、撮像部41、センサ部42、および監視部43から構成される。
撮像部41は、CCD(Charge Coupled Device)撮像素子、CMOS(Complementary Metal Oxide Semiconductor)撮像素子、または対数変換型撮像素子などが利用されたカメラから構成され、監視の対象となる車両の周囲の領域である監視領域を撮影し、これにより得られた画像を監視部43に供給する。
例えば、車両の運転席に座っている運転者から見て正面方向、すなわち運転席からフロントグラスに向かう方向を前方とすると、撮像部41を構成する複数のカメラは、それぞれ前方、後方、右方向、左方向、右斜め前方、左斜め前方、右斜め後方、および左斜め後方の計8方向に向けられて固定され、それぞれの方向の監視領域を撮影するようになされている。
なお、撮像部41を構成するカメラは、1つであっても複数であってもよい。また、撮像部41を構成するカメラの撮影範囲を拡大させるために、カメラのレンズとして広角レンズや魚眼レンズを用いるようにしてもよい。
センサ部42は、例えば、ドップラセンサ、赤外線センサ、加速度センサ、静電容量式センサ、電波式センサなどの各種のセンサから構成される。センサ部42は、例えば、車両のドアやトランクなどの開閉、ドアやトランクなどへのものの接近または接触、車両へのもの(例えば、人など)の接近およびそのものの車両に対する方向や距離、車両に設けられたキーシリンダの異常、車両の傾きや振動などを検出し、その検出の結果を示すセンサデータを監視部43に供給する。
監視部43は、撮像部41から供給された画像、およびセンサ部42から供給されたセンサデータに基づいて車両に対する接近者を検出し、検出データを生成する。監視部43は、位置検出部51、特徴点抽出部52、個人ID保持部53、顔認識部54、顔向き検出部55、姿勢検出部56、行為推定部57、検出データ生成部58、および通信部59から構成される。
位置検出部51は、センサ部42から供給されたセンサデータに基づいて、車両に対する接近者の位置を検出し、その検出結果を示す位置情報を行為推定部57および検出データ生成部58に供給する。例えば、接近者の位置は、車両内の所定の位置、または監視装置11を基準とする3次元空間上の位置とされる。
特徴点抽出部52は、撮像部41から供給された画像から接近者の身体重心、頭頂部、手先、足先などの特徴点を抽出し、抽出した特徴点を顔認識部54および姿勢検出部56に供給する。
個人ID保持部53は、予め登録されている人、または監視装置11によって過去に検出された接近者を特定する個人ID、およびその個人IDに関係付けられた人の顔の目、口、鼻などの所定の部位の位置を示すテンプレートを保持している。
顔認識部54は、個人ID保持部53に保持されている個人IDを参照し、撮像部41から供給された画像、および特徴点抽出部52から供給された特徴点に基づいて画像に写っている接近者の顔認識を行い、接近者を特定する。顔認識部54は、顔認識を行うと、顔認識の結果を示す情報を顔向き検出部55に供給するとともに、顔認識の結果特定された接近者を示す個人IDを検出データ生成部58に供給する。
顔向き検出部55は、顔認識部54から供給された顔認識の結果を示す情報に基づいて、接近者の顔の向きおよび視線の向きを検出し、その検出結果を示す情報を姿勢検出部56に供給する。
姿勢検出部56は、特徴点抽出部52から供給された特徴点、および顔向き検出部55から供給された検出結果に基づいて、接近者の姿勢を検出し、その検出結果を示す姿勢情報を行為推定部57および検出データ生成部58に供給する。
行為推定部57は、センサ部42から供給されたセンサデータ、位置検出部51から供給された位置情報、および姿勢検出部56から供給された姿勢情報に基づいて接近者の行為を推定し、その推定結果を示す行為情報を検出データ生成部58に供給する。
検出データ生成部58は、顔認識部54から供給された個人ID、姿勢検出部56から供給された姿勢情報、行為推定部57から供給された行為情報、および位置検出部51から供給された位置情報に基づいて検出データを生成し、通信部59に供給する。通信部59は、検出データ生成部58から供給された検出データを、ネットワーク14を介してセンタ装置12に送信する。
次に、図3は、図1に示したセンタ装置12の構成例を示すブロック図である。
センタ装置12は、通信部81、制御部82、および記録部83から構成される。
通信部81は、ネットワーク14を介して監視装置11または端末装置13と通信を行い、各種のデータを送受信する。制御部82は、センタ装置12全体を制御する。また、制御部82は、通知生成部91を含む。制御部82の通知生成部91は、監視装置11から検出データが受信された旨の受信通知を生成する。記録部83は、例えば、ハードディスクなどから構成され、監視装置11から受信した検出データなどの各種のデータを記録する。
図4は、図1に示した端末装置13の構成例を示すブロック図である。
端末装置13は、通信部121、入力部122、制御部123、通知画像生成部124、および表示部125から構成される。
通信部121は、ネットワーク14を介して監視装置11またはセンタ装置12と通信を行い、各種のデータを送受信する。入力部122は、例えば、ボタン、スイッチなどから構成され、利用者の操作に応じた指令を制御部123に供給する。
制御部123は、端末装置13全体を制御する。通知画像生成部124は、センタ装置12から受信した検出データに基づいて、監視対象および接近者の通知画像を生成する。表示部125は、例えば、LCD(Liquid Crystal Display)などから構成され、制御部123または通知画像生成部124から供給された画像を表示する。
ところで、利用者が車両に設置された監視装置11を操作するか、または端末装置13を操作して監視する対象である車両の監視を指示すると、監視装置11は、その指示に応じて監視処理を開始する。以下、図5のフローチャートを参照して、監視装置11による監視処理について説明する。
ステップS11において、撮像部41は、車両の周辺の撮影を開始する。すなわち、撮像部41は、監視領域の画像を撮影し、撮影された画像を位置検出部51、特徴点抽出部52、および顔認識部54に供給する。
ステップS12において、センサ部42は、接近者の車両への接近の監視を開始する。例えば、センサ部42は、車両への接近者の接近、接近者の方向および車両からの距離、接近者の車両の各部位への接近および接触などを検出し、その結果を示すセンサデータを位置検出部51および行為推定部57に供給する。
ステップS13において、位置検出部51は、撮像部41から供給された画像、およびセンサ部42から供給されたセンサデータに基づいて、車両への人の接近が検出されたか否かを判定する。
例えば、位置検出部51は、車両へのものの接近が検出された旨の検出データがセンサ部42から供給されると、人の接近が検出されたと判定する。また、例えば、撮像部41から位置検出部51に供給された画像において、動くものが検出された場合に人の接近が検出されたと判定されるようにしてもよい。
ステップS13において、人の接近が検出されなかったと判定された場合、ステップS13に戻り、人の接近が検出されたと判定されるまで、判定の処理が繰り返される。
これに対して、ステップS13において、人の接近が検出されたと判定された場合、ステップS14に進み、特徴点抽出部52は、撮像部41から供給された画像から、接近者の特徴点を抽出し、抽出した特徴点を顔認識部54および姿勢検出部56に供給する。
例えば、特徴点抽出部52は、撮像部41から供給された画像から動くものを検出して、検出されたもののうち、肌色の画素が含まれるものを接近者とする。次に、特徴点抽出部52は、画像から接近者のシルエット画像とその輪郭を抽出し、抽出されたシルエット画像に距離変換処理などを施して接近者の身体重心および上半身主軸を求める。
さらに、特徴点抽出部52は、抽出された接近者の輪郭から足先、手先、および頭頂部の位置を検出し、検出された接近者の身体重心、頭頂部、手先、足先を特徴点として画像から抽出する。そして、特徴点抽出部52は、このようにして抽出された特徴点、より詳細には特徴点の位置を示す情報を顔認識部54および姿勢検出部56に供給する。
また、例えば、撮像部41を構成するカメラとして、赤外線カメラが含まれるようにし、赤外線カメラにより撮影された熱画像を用いて接近者のシルエット画像を抽出するようにしてもよい。
ステップS15において、顔認識部54は、撮像部41から供給された画像、および特徴点抽出部52から供給された特徴点に基づいて画像に写っている接近者の顔認識を行い、接近者を特定する。
例えば、顔認識部54は、撮像部41から供給された画像における、頭頂部などの特徴点の付近の領域を接近者の顔の領域とし、テンプレートマッチングなどにより接近者の目、口、鼻などの顔の所定の部位の位置を検出する。そして、顔認識部54は、検出された接近者の顔の各部位の位置と、個人ID保持部53に保持されている、個人IDに関係付けられたテンプレートにより示される人の顔の各部位の位置とを比較して、接近者を特定する。
また、比較の結果、接近者が特定されなかった場合、すなわち、接近者の顔の各部位の位置と、テンプレートにより示される人の顔の各部位の位置との比較の結果、接近者が、個人ID保持部53に保持されている個人IDにより特定される人とは異なる人であった場合、顔認識部54は、その接近者のテンプレートを生成し、生成したテンプレートと、その接近者を特定する新たな個人ID、すなわち個人ID保持部53に保持されていない新たな個人IDとを関係付けて個人ID保持部53に供給して保持させる。
そして、接近者が特定されると、顔認識部54は、その接近者を特定する個人IDを検出データ生成部58に供給する。また、顔認識部54は、接近者の顔の画像、およびその画像における接近者の顔の各部位の位置を示す情報を、顔認識の結果を示す情報として顔向き検出部55に供給する。
ステップS16において、顔向き検出部55は、顔認識部54から供給された顔認識の結果を示す情報に基づいて、接近者の顔の向きを検出する。例えば、顔向き検出部55は、顔認識の結果を示す情報により示される接近者の目の数、鼻の向きや位置などに基づいて接近者の顔の方向を検出する。
ステップS17において、顔向き検出部55は、顔認識部54から供給された顔認識の結果を示す情報に基づいて、接近者の視線の向きを検出し、接近者の顔の向きおよび視線の向きを示す情報を姿勢検出部56に供給する。例えば、顔向き検出部55は、顔認識の結果を示す情報により示される接近者の目の眼球の中心位置と瞳孔の中心位置とを検出し、眼球の中心位置と瞳孔の中心位置とを結ぶベクトルの方向を接近者の視線の方向とする。
ステップS18において、姿勢検出部56は、特徴点抽出部52から供給された特徴点、および顔向き検出部55から供給された検出結果に基づいて、接近者の姿勢を検出し、その検出結果を示す姿勢情報を生成する。例えば、生成された姿勢情報には、接近者の視線の方向を示す情報も含まれている。姿勢検出部56は、生成した姿勢情報を行為推定部57および検出データ生成部58に供給する。
例えば、姿勢検出部56は、特徴点および検出結果を用いて、遺伝的アルゴリズムにより接近者の肘や膝の位置を検出し、その検出結果に基づいて接近者の姿勢を検出する。
ステップS19において、位置検出部51は、センサ部42から供給されたセンサデータに基づいて、車両に対する接近者の位置を検出し、その検出結果を示す位置情報を行為推定部57および検出データ生成部58に供給する。
ステップS20において、行為推定部57は、センサ部42からのセンサデータ、位置検出部51からの位置情報、および姿勢検出部56からの姿勢情報に基づいて、接近者の行為を推定し、その推定結果を示す行為情報を検出データ生成部58に供給する。
例えば、位置情報により示される接近者の位置が、車両から所定の距離以上離れた位置であり、姿勢情報により示される接近者の視線の方向が車両の方向とは異なる方向を向いており、さらにセンサ部42から、接近者が所定の方向に所定の速度で移動している旨のセンサデータが供給された場合、行為推定部57は、接近者が車両の付近を通行している旨の行為情報を生成する。
また、例えば、姿勢情報により示される接近者の姿勢が車両の方向に手を伸ばしている姿勢、例えば接近者の体の部位のうち最も車両に近い部位が手であり、センサ部42から接近者が車両のドアハンドルに接触した旨のセンサデータが供給された場合、行為推定部57は、接近者が車両のドアを開けようとしている旨の行為情報を生成する。
さらに、例えば、位置情報により示される接近者の位置が、車両から所定の距離以内の位置であり、姿勢情報により示される接近者の顔および視線の方向が車両の方向である場合、行為推定部57は、接近者が車両を覗き込んでいる旨の行為情報を生成する。
ステップS21において、検出データ生成部58は、位置検出部51からの位置情報、行為推定部57からの行為情報、姿勢検出部56からの姿勢情報、および顔認識部54からの個人IDを基に、個人ID、位置情報、姿勢情報、行為情報、および接近者が検出された時刻が含まれる検出データを生成して通信部59に供給する。
ステップS22において、通信部59は、検出データ生成部58から供給された検出データを、ネットワーク14を介してセンタ装置12に送信し、処理はステップS13に戻る。なお、この監視処理は、例えば、利用者により監視装置11が操作されるか、または端末装置13が操作されて監視の終了が指示されると終了される。
このようにして、監視装置11は、利用者の車両を監視し、車両への接近者を検出する。そして、監視装置11は、検出した接近者の車両に対する位置、接近者の姿勢、接近者の行為、接近者を特定する個人IDなどを示す検出データをセンタ装置12に送信する。
このように、検出された接近者の姿勢や位置、接近者を特定する個人IDが含まれる検出データをセンタ装置12に送信するようにしたので、利用者が所有する端末装置13に、より正確に車両の周囲の状況を把握するための情報を送信することができる。
なお、ステップS13において、複数の接近者が検出された場合、監視装置11は、検出された接近者の数だけ検出データを生成してセンタ装置12に送信する。すなわち、監視装置11は、検出された接近者のそれぞれに対して、ステップS14の処理乃至ステップS22の処理を行う。
監視装置11からセンタ装置12に検出データが送信されると、センタ装置12は、その検出データを受信し、端末装置13からの要求に応じて受信した検出データを端末装置13に送信する。
次に、図6のフローチャートを参照して、センタ装置12による検出データ送信処理について説明する。
ステップS51において、制御部82は、監視装置11から検出データが送信されてきたか否かを判定する。ステップS51において、検出データが送信されてきてないと判定された場合、ステップS52の処理乃至ステップS54の処理はスキップされて、ステップS55に進む。
これに対して、ステップS51において、検出データが送信されてきたと判定された場合、ステップS52に進み、通信部81は、監視装置11から送信されてきた検出データを受信して、受信した検出データを制御部82を介して記録部83に供給する。記録部83は、通信部81から供給された検出データを記録する。
例えば、記録部83は、図7に示すように、監視装置11から供給された検出データを個人IDごとにまとめて記録する。
図7には、個人ID“20060123001”が含まれている検出データ、個人ID“20060123002”が含まれている検出データ、個人ID“20060123003”が含まれている検出データ、および個人ID“20060123004”が含まれている検出データがそれぞれまとめられて記録されている。
また、個人ID“20060123001”が含まれている検出データとして、検出時刻が“10:00:00”である検出データ、および検出時刻が“10:00:30”である検出データが記録されている。例えば、検出時刻“10:00:00”は、受信した検出データに含まれる時刻が10時10分00秒であることを示しており、検出時刻が“10:00:00”である検出データには、その時刻に検出された接近者の位置情報、姿勢情報、および行為情報が含まれている。
図6のフローチャートの説明に戻り、ステップS53において、制御部82の通知生成部91は、検出データを受信した旨の受信通知を生成し、通信部81に供給する。例えば、通知生成部91は、受信された検出データに含まれる時刻に、接近者が検出された旨のメッセージが含まれる電子メールを受信通知として生成する。
ステップS54において、通信部81は、通知生成部91から供給された受信通知を、ネットワーク14を介して端末装置13に送信する。
ステップS54において受信通知が送信されるか、ステップS51において検出データが送信されてきてないと判定されると、ステップS55において、制御部82は、端末装置13から検出データの送信が要求されたか否かを判定する。例えば、制御部82は、端末装置13から検出データの送信を要求する旨の送信要求が送信されてくると、検出データの送信が要求されたと判定する。
ステップS55において、検出データの送信が要求されていないと判定された場合、受信した検出データを送信しないので、処理はステップS51に戻り、上述した処理が繰り返される。
これに対して、ステップS55において、検出データの送信が要求されたと判定された場合、通信部81は、端末装置13から送信されてきた送信要求を受信して制御部82に供給する。制御部82は、送信要求が供給されると、記録部83から検出データを取得して通信部81に供給し、処理はステップS56に進む。
ステップS56において、通信部81は、制御部82から供給された検出データを、ネットワーク14を介して端末装置13に送信し、処理はステップS51に戻る。
なお、センタ装置12から端末装置13に送信される検出データは、センタ装置12が監視装置11から最後に受信した検出データ、すなわち最も新しい時刻(現在時刻に近い時刻)が含まれている検出データとしてもよいし、まだ端末装置13に送信されていない全ての検出データとしてもよい。また、端末装置13に送信される検出データは、最後に受信した検出データに含まれる時刻を含む所定の期間内の時刻が含まれる複数の検出データであって、同じ個人IDが含まれている検出データとしてもよい。
さらに、制御部82が、検出データが添付された電子メールを生成するようにし、通信部81が制御部82により生成された電子メールを送信するようにしてもよい。
このようにして、センタ装置12は、監視装置11から検出データを受信し、端末装置13からの要求に応じて、受信した検出データを端末装置13に送信する。
センタ装置12から端末装置13に送信される検出データには、接近者の位置情報、姿勢情報、行為情報、個人IDなどの、利用者に接近者の姿勢や行為を通知するための情報が含まれているが、検出データは、監視領域を撮影した画像と比べるとのそのデータ量が非常に少ないため、利用者の端末装置13の通信料に負担がかかるようなことはない。
また、検出データのデータ量は、撮影された画像のデータ量に比べて非常に少ないので、ネットワーク14における通信速度が画像を送信するには充分でない場合においても、センタ装置12は迅速に検出データを送信することができ、接近者の検出を確実に端末装置13に通知することができる。
ところで、利用者が車両に設置された監視装置11を操作するか、または端末装置13を操作して監視する対象である車両の監視を指示すると、監視装置11が監視処理を開始するとともに、端末装置13はセンタ装置12から検出データを受信して通知画像を表示する処理である、通知処理を開始する。
以下、図8のフローチャートを参照して、端末装置13による通知処理について説明する。
ステップS81において、制御部123は、検出データの受信が通知されたか否かを判定する。例えば、制御部123は、センタ装置12から受信通知が送信されてくると、検出データの受信が通知されたと判定する。
ステップS81において、検出データの受信が通知されていないと判定された場合、検出データを受信しないので、ステップS82の処理およびステップS83の処理はスキップされて、処理はステップS84に進む。
これに対して、ステップS81において、検出データの受信が通知されたと判定された場合、ステップS82に進み、通信部121は、センタ装置12から送信されてきた受信通知を受信して制御部123に供給する。制御部123は、通信部121から供給された受信通知を表示部125に供給する。
ステップS83において、表示部125は、制御部123から供給された受信通知を表示して、利用者に検出データの受信、すなわち車両に対する接近者の検出を通知する。例えば、表示部125は、受信通知として受信された電子メールに含まれるメッセージを表示する。なお、表示部125に受信通知を表示するとともに、音声を再生して利用者に車両に対する接近者が検出された旨を通知するようにしてもよい。
ステップS84において、制御部123は、利用者により検出データの受信が要求されたか否かを判定する。例えば、表示された受信通知を確認した利用者が入力部122を操作して検出データの受信を指示すると、入力部122から制御部123には、利用者の操作に応じた指令が供給される。制御部123は、入力部122から検出データの受信を要求する指令が供給された場合、検出データの受信が要求されたと判定する。
ステップS84において、検出データの受信が要求されていないと判定された場合、検出データを受信しないので、ステップS81に戻り上述した処理が繰り返される。
これに対して、ステップS84において、検出データの受信が要求されたと判定された場合、制御部123は、検出データの送信を要求する送信要求を生成し、通信部121に供給して処理はステップS85に進む。
ステップS85において、通信部121は、制御部123から供給された送信要求を、ネットワーク14を介してセンタ装置12に送信する。
送信要求がセンタ装置12に送信されると、センタ装置12から端末装置13には検出データが送信されてくるので、ステップS86において、通信部121は、センタ装置12から送信されてきた検出データを受信して、受信した検出データを、制御部123を介して通知画像生成部124に供給する。
ステップS87において、通知画像生成部124は、受信された検出データに基づいて通知画像を生成し、表示部125に供給する。
例えば、通知画像生成部124は、利用者本人や車両を駐車する駐車場の管理人など、予め登録されている個人IDにより特定される人の顔の画像、監視装置11が設置される車両の画像、および2次元または3次元の所定の人のモデルの画像を記録している。ここで、通知画像生成部124は、車両の画像および人のモデルの画像として、複数の異なる方向から撮影された車両の画像および人のモデルの画像を記録している。
通知画像生成部124は、記録している人のモデルの画像、個人IDにより特定される人の顔の画像、および車両の画像を適宜用いて、検出データに基づいて2次元または3次元の通知画像を生成する。
より具体的には、例えば、通知画像生成部124は、記録している車両の画像および人のモデルの画像を用いて、人のモデルの姿勢が、検出データに含まれている姿勢情報により示される姿勢となるように、記録している人のモデルの手、足などの各部位を変形させて、変形された姿勢情報により示される姿勢の人のモデルの画像を生成する。そして、通知画像生成部124は、生成した姿勢情報により示される姿勢の人のモデルの画像、すなわち接近者の画像が、車両に対して位置情報により示される位置に表示されるように通知画像を生成する。
このとき、通知画像生成部124は、検出データに含まれている個人IDにより特定される人の画像を記録している場合には、通知画像の人のモデルの顔の部分にその個人IDにより特定される人の顔の画像が表示されるように通知画像を生成する。このように、予め登録されている人の顔の画像を表示させることで、利用者は、接近者が不審者であるか否かを直ちに判断することができる。
また、個人IDにより特定される人の画像が記録されていない場合には、通知画像生成部124が、同じ個人IDにより特定される人の画像の色、例えば、その人の服の色が常に同じ色で表示されるように通知画像を生成して、表示された接近者が、以前検出された接近者と同じ人物であるか否かを利用者が容易に判断できるようにしてもよい。
さらに、通知画像生成部124は、通知画像において、接近者が車両に隠れて見えなくならないように、すなわち接近者が車両よりも手前側に表示されるように、所定の方向から車両および接近者を見た画像を通知画像として生成する。
通知画像が生成されると、ステップS88において、表示部125は、通知画像生成部124から供給された通知画像を表示し、処理はステップS81に戻り、上述した処理が繰り返される。これにより、表示部125には、例えば、図9に示す通知画像が表示される。
図9は、2次元の通知画像の表示例を示しており、通知画像は、車両151をその側面から見た画像とされている。図9に示される通知画像では、監視対象としての車両151のドアが開けられ、車両151に接近者152が進入しようとしている画像が表示されている。
このように、検出データに基づいて、通知画像を生成して表示するので、利用者は通知画像を見ることで、接近者152が利用者の知らない人であり、車両151のドアを開けたこと、および接近者152が車両151に進入しようとしていることを瞬時に把握することができる。すなわち、利用者は通知画像を見ることにより、より迅速に、より正確に監視対象である車両151の周囲の状況を把握することができる。
また、表示部125には、例えば、図10に示す通知画像が表示される。
図10は、3次元の通知画像の表示例を示しており、通知画像は、車両151をその斜め前方から見た画像とされている。図10に示される通知画像では、監視対象である車両151の手前を接近者152が通行している画像が表示されている。
このように、検出データに基づいて、通知画像を生成して表示するので、利用者は通知画像を見ることで、接近者152は利用者の知らない人であるが、接近者152は、車両151の付近を通過する通行人であると瞬時に把握することができる。
なお、通知画像の表示例は、図9および図10に示した例に限らず、例えば、通知画像に、“人が車に侵入しようとしています”などといった検出データに含まれる行為情報に基づくメッセージが表示されるようにしてもよいし、接近者により接触された車両の部位が車両の色とは異なる色で表示されて強調されたり点滅させたりするようにしてもよい。
また、所定の期間の検出データが受信されるようにして、過去に接近者が検出された位置が点滅して表示されるようにしたり、所定の期間の各時刻において接近者が検出された位置に接近者の残像が表示されるようにしたりしてもよい。
さらに、所定の期間の接近者の位置および姿勢の変化、すなわち過去の接近者の動きがアニメーション表示されるようにしてもよいし、所定の期間、例えば、過去1分間の接近者の位置および行為が繰り返し表示されるようにしてもよい。
さらに、また、検出データに含まれる行為情報が、接近者がドアハンドルに接触した旨の行為情報である場合に、ドアハンドルがクローズアップされて表示されたり、キーシリンダにおいて異物が検出された場合には、接近者が手に異物を把持している画像が表示されたりするようにしてもよい。
なお、通知処理は、利用者により入力部122が操作されて車両の監視の終了が指示され、入力部122から制御部123に利用者の操作に応じた指令が供給されると終了する。また、上述した検出データを受信して、通知画像を表示する処理は、例えば、ウェブブラウザが利用されて行われる。
このようにして、端末装置13は、センタ装置12から検出データを受信し、受信した検出データに基づいて通知画像を生成して表示する。
このように、受信した検出データに基づいて、監視対象および検出された姿勢の接近者の通知画像を表示することで、利用者は、監視対象である車両の周囲の状況を正確に把握することができる。
以上のように、検出された接近者の姿勢や位置、接近者を特定する個人IDが含まれる検出データを送信するようにしたので、利用者が所有する端末装置13により正確に車両の周囲の状況を把握するための情報を送信することができる。
また、通知画像として、検出データにより示される位置に、検出データにより示される姿勢の接近者の画像を表示するようにしたので、利用者は、監視対象である車両の周囲の状況を正確に把握することができる。
なお、以上においては、監視装置11において生成された検出データが、センタ装置12を介して端末装置13に送信されると説明したが、監視装置11から検出データが直接端末装置13に送信されるようにしてもよい。また、監視装置11に表示装置を接続して、監視装置11から表示装置に検出データが送信されるようにし、表示装置において、受信された検出データに基づいて通知画像が表示されるようにしてもよい。
さらに、センタ装置12が、検出データに基づいて通知画像を生成し、センタ装置12が生成した通知画像を端末装置13に送信するようにしてもよい。
さらに、また、端末装置13に過去に検出された不審者を特定する個人IDを予め登録しておき、その個人IDが含まれる検出データが受信された場合には、通知画像に表示される人のモデルが点滅して表示されるようにしたり、その人のモデルを囲む点滅する枠などが表示されるようにしたりしてもよい。
さらに、また、監視装置11において撮影された接近者の顔の画像が、センタ装置12から端末装置13に送信されるようにし、端末装置13において、その接近者の顔の画像が通知画像の人のモデルの顔の部分に表示されるようにしてもよい。このようにすることにより、接近者が複数いる場合には、利用者は、複数の接近者のそれぞれを容易に識別することができる。なお、行為情報により示される接近者の行為が、車両に危害を加えるような行為ではない場合には、接近者の顔の画像が端末装置13に送信されないようにすることも可能である。そのような場合、悪意のない接近者のプライバシを保護することもできる。
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図11は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータの構成の例を示すブロック図である。パーソナルコンピュータ201のCPU(Central Processing Unit)211は、ROM(Read Only Memory)212、または記録部218に記録されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)213には、CPU211が実行するプログラムやデータなどが適宜記憶される。これらのCPU211、ROM212、およびRAM213は、バス214により相互に接続されている。
CPU211にはまた、バス214を介して入出力インターフェース215が接続されている。入出力インターフェース215には、キーボード、マウス、マイクロホンなどよりなる入力部216、ディスプレイ、スピーカなどよりなる出力部217が接続されている。CPU211は、入力部216から入力される指令に対応して各種の処理を実行する。そして、CPU211は、処理の結果を出力部217に出力する。
入出力インターフェース215に接続されている記録部218は、例えばハードディスクからなり、CPU211が実行するプログラムや各種のデータを記録する。通信部219は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。
また、通信部219を介してプログラムを取得し、記録部218に記録してもよい。
入出力インターフェース215に接続されているドライブ220は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア231が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記録部218に転送され、記録される。
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図11に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスクを含む)、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア231、または、プログラムが一時的もしくは永続的に格納されるROM212や、記録部218を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインターフェースである通信部219を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。
なお、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
本発明を適用した監視システムの一実施の形態の構成例を示す図である。 監視装置の構成を示すブロック図である。 センタ装置の構成を示すブロック図である。 端末装置の構成を示すブロック図である。 監視処理を説明するフローチャートである。 検出データ送信処理を説明するフローチャートである。 検出データの一例を示す図である。 通知処理を説明するフローチャートである。 通知画像の表示例を示す図である。 通知画像の表示例を示す図である。 パーソナルコンピュータの構成を示すブロック図である。
符号の説明
11 監視装置
12 センタ装置
13 端末装置
41 撮像部
42 センサ部
43 監視部
51 位置検出部
52 特徴点抽出部
54 顔認識部
55 顔向き検出部
56 姿勢検出部
57 行為推定部
58 検出データ生成部
59 通信部
121 通信部
123 制御部
124 通知画像生成部
125 表示部

Claims (12)

  1. 監視対象であるものの周囲の領域である監視領域を撮影する撮影手段と、
    前記ものに接近する接近者の前記ものへの接近、または前記接近者の前記ものへの接触を監視する監視手段と、
    撮影された前記監視領域の画像に基づいて、前記接近者の姿勢を検出し、前記接近者の姿勢を示す姿勢情報を生成する姿勢検出手段と、
    前記監視手段による監視結果、および前記画像に基づいて、前記接近者の前記ものに対する位置を検出し、その位置を示す位置情報を生成する位置検出手段と、
    前記姿勢情報および前記位置情報からなる、前記接近者の姿勢および前記ものに対する位置を示す検出データを送信する送信手段と
    を備える監視装置。
  2. 監視対象であるものの周囲の領域である監視領域を撮影する撮影手段と、
    前記ものに接近する接近者の前記ものへの接近、または前記接近者の前記ものへの接触を監視する監視手段と、
    撮影された前記監視領域の画像に基づいて、前記接近者の姿勢を検出し、前記接近者の姿勢を示す姿勢情報を生成する姿勢検出手段と、
    前記監視手段による監視結果、または前記画像に基づいて、前記接近者の前記ものに対する位置を検出し、その位置を示す位置情報を生成する位置検出手段と、
    前記姿勢情報および前記監視結果に基づいて、前記接近者が行った行為を推定し、その行為を示す行為情報を生成する行為推定手段と、
    前記姿勢情報、前記位置情報、および前記行為情報からなる、前記接近者の姿勢および前記ものに対する位置を示す検出データを送信する送信手段と
    を備える監視装置。
  3. 前記画像を用いて前記接近者の顔を認識し、前記接近者を特定する顔認識手段をさらに備え、
    前記送信手段は、特定された前記接近者を示す個人IDが含まれる前記検出データを送信する
    請求項1または請求項2に記載の監視装置。
  4. 前記接近者の顔の向きまたは視線の向きを検出する顔方向検出手段をさらに備え、
    前記姿勢検出手段は、前記顔方向検出手段による検出結果および前記画像に基づいて、前記接近者の姿勢を検出する
    請求項1または請求項2に記載の監視装置。
  5. 監視対象であるものの周囲の領域である監視領域を撮影する撮影ステップと、
    前記ものに接近する接近者の前記ものへの接近、または前記接近者の前記ものへの接触を監視する監視ステップと、
    撮影された前記監視領域の画像に基づいて、前記接近者の姿勢を検出して前記接近者の姿勢を示す姿勢情報を生成する姿勢検出ステップと、
    前記接近者の前記ものへの接近、若しくは前記接近者の前記ものへの接触の監視結果、および前記画像に基づいて、前記接近者の前記ものに対する位置を検出してその位置を示す位置情報を生成する位置検出ステップと、
    前記姿勢情報および前記位置情報からなる、前記接近者の姿勢および前記ものに対する位置を示す検出データを送信する送信ステップと
    を含む監視方法。
  6. 監視対象であるものの周囲の領域である監視領域を撮影する撮影ステップと、
    前記ものに接近する接近者の前記ものへの接近、または前記接近者の前記ものへの接触を監視する監視ステップと、
    撮影された前記監視領域の画像に基づいて、前記接近者の姿勢を検出して前記接近者の姿勢を示す姿勢情報を生成する姿勢検出ステップと、
    前記接近者の前記ものへの接近、若しくは前記接近者の前記ものへの接触の監視結果、および前記画像に基づいて、前記接近者の前記ものに対する位置を検出してその位置を示す位置情報を生成する位置検出ステップと、
    前記姿勢情報および前記位置情報からなる、前記接近者の姿勢および前記ものに対する位置を示す検出データを送信する送信ステップと
    をコンピュータに実行させるプログラム。
  7. 監視対象であるものに接近する接近者の姿勢を示す姿勢情報、および前記接近者の前記ものに対する位置を示す位置情報からなる検出データを受信する受信手段と、
    前記検出データに基づいて、前記もの、および前記姿勢情報により示される姿勢の前記接近者の画像であって、前記接近者の前記ものへの接近を通知する画像を生成する生成手段と、
    生成された前記画像を表示する表示手段と
    を備え、
    前記生成手段は、前記接近者を示す個人IDが含まれる前記検出データに基づいて、前記画像における前記接近者の顔の部分に、予め記録している前記個人IDに関係付けられた顔の画像が表示されるように、前記接近者の前記ものへの接近を通知する前記画像を生成する
    画像処理装置。
  8. 前記生成手段は、2次元または3次元の前記画像を生成する
    請求項7に記載の画像処理装置。
  9. 前記生成手段は、各時刻における前記姿勢情報および前記位置情報からなる前記検出データに基づいて、前記接近者の位置および姿勢の変化をアニメーション表示させるための前記画像を生成する
    請求項7に記載の画像処理装置。
  10. 前記生成手段は、前記接近者が行った行為を示す行為情報が含まれる前記検出データに基づいて、前記画像を生成する
    請求項7に記載の画像処理装置。
  11. 監視対象であるものに接近する接近者の姿勢を示す姿勢情報、および前記接近者の前記ものに対する位置を示す位置情報からなる検出データを受信する受信ステップと、
    前記検出データに基づいて、前記もの、および前記姿勢情報により示される姿勢の前記接近者の画像であって、前記接近者の前記ものへの接近を通知する画像を生成する生成ステップと、
    生成された前記画像を表示する表示ステップと
    を含み、
    前記生成ステップにおいて、前記接近者を示す個人IDが含まれる前記検出データに基づいて、前記画像における前記接近者の顔の部分に、予め記録している前記個人IDに関係付けられた顔の画像が表示されるように、前記接近者の前記ものへの接近を通知する前記画像を生成する
    画像処理方法。
  12. 監視対象であるものに接近する接近者の姿勢を示す姿勢情報、および前記接近者の前記ものに対する位置を示す位置情報からなる検出データを受信する受信ステップと、
    前記検出データに基づいて、前記もの、および前記姿勢情報により示される姿勢の前記接近者の画像であって、前記接近者の前記ものへの接近を通知する画像を生成する生成ステップと、
    生成された前記画像を表示する表示ステップと
    を含む処理をコンピュータに実行させ、
    前記生成ステップにおいて、前記接近者を示す個人IDが含まれる前記検出データに基づいて、前記画像における前記接近者の顔の部分に、予め記録している前記個人IDに関係付けられた顔の画像が表示されるように、前記接近者の前記ものへの接近を通知する前記画像を生成させる
    プログラム。
JP2006071676A 2006-03-15 2006-03-15 監視装置および方法、画像処理装置および方法、並びにプログラム Expired - Fee Related JP4797720B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006071676A JP4797720B2 (ja) 2006-03-15 2006-03-15 監視装置および方法、画像処理装置および方法、並びにプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006071676A JP4797720B2 (ja) 2006-03-15 2006-03-15 監視装置および方法、画像処理装置および方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2007251556A JP2007251556A (ja) 2007-09-27
JP4797720B2 true JP4797720B2 (ja) 2011-10-19

Family

ID=38595393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006071676A Expired - Fee Related JP4797720B2 (ja) 2006-03-15 2006-03-15 監視装置および方法、画像処理装置および方法、並びにプログラム

Country Status (1)

Country Link
JP (1) JP4797720B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3754618A4 (en) * 2018-12-19 2021-05-05 JVCKenwood Corporation RECORDING CONTROL DEVICE, SYSTEM, METHOD AND PROGRAM

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011048547A (ja) * 2009-08-26 2011-03-10 Toshiba Corp 異常行動検知装置、監視システム及び異常行動検知方法
JP2011172205A (ja) * 2010-01-20 2011-09-01 Canon Inc 映像情報処理装置および方法
JP5872764B2 (ja) * 2010-12-06 2016-03-01 富士通テン株式会社 画像表示システム
JP6616602B2 (ja) * 2015-07-06 2019-12-04 パラマウントベッド株式会社 対象者誘導装置、対象者誘導方法、プログラム及び対象者誘導システム
JP6468444B2 (ja) * 2016-04-28 2019-02-13 コベルコ建機株式会社 建設機械
JP7225952B2 (ja) * 2019-03-12 2023-02-21 株式会社Jvcケンウッド 車両用記録制御装置、車両用記録装置、車両用記録制御方法およびプログラム
JP7312598B2 (ja) * 2019-04-24 2023-07-21 セコム株式会社 監視表示装置
JP7467300B2 (ja) 2020-09-17 2024-04-15 京セラ株式会社 システム、電子機器、電子機器の制御方法、及びプログラム
JP7449212B2 (ja) 2020-09-28 2024-03-13 京セラ株式会社 システム、電子機器、電子機器の制御方法、及びプログラム
CN113240825B (zh) * 2021-05-07 2023-04-18 阿波罗智联(北京)科技有限公司 一种基于车辆的交互方法、装置、设备、介质及车辆
US20230226979A1 (en) * 2022-01-18 2023-07-20 DarkStar Vision Inc. Combination mirror and display screen

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1040482A (ja) * 1996-07-23 1998-02-13 Hiroshi Akashi 文章情報による無人報知システム
JP2000123086A (ja) * 1998-10-16 2000-04-28 Nippon Signal Co Ltd:The 電子決済システム
JP3489491B2 (ja) * 1999-06-24 2004-01-19 日本電気株式会社 人物行動解析装置及び人物行動解析プログラムを記録した記録媒体
JP3519672B2 (ja) * 2000-06-19 2004-04-19 株式会社日立製作所 動作認識処理装置及び移動物体の動作分析システム
JP3460680B2 (ja) * 2000-07-07 2003-10-27 日本エルエスアイカード株式会社 現場状況報知システム並びにこれに用いる撮像ユニット
JP3726695B2 (ja) * 2001-04-03 2005-12-14 オムロン株式会社 車両盗難監視システム、車両搭載装置、車両異常監視方法、車両盗難監視方法、車両盗難監視プログラム、及びこれを記録したコンピュータ読み取り可能な記録媒体
JP2003087771A (ja) * 2001-09-07 2003-03-20 Oki Electric Ind Co Ltd 監視システム及び方法
JP4322775B2 (ja) * 2004-10-21 2009-09-02 富士通テン株式会社 車両盗難予防装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3754618A4 (en) * 2018-12-19 2021-05-05 JVCKenwood Corporation RECORDING CONTROL DEVICE, SYSTEM, METHOD AND PROGRAM

Also Published As

Publication number Publication date
JP2007251556A (ja) 2007-09-27

Similar Documents

Publication Publication Date Title
JP4797720B2 (ja) 監視装置および方法、画像処理装置および方法、並びにプログラム
WO2020125406A1 (zh) 安全监护方法、装置、终端及计算机可读存储介质
TWI749113B (zh) 在視訊監控系統中產生警示之方法、系統及電腦程式產品
KR101610657B1 (ko) 출입통제 데이터를 기반으로 하는 3차원 공간정보 출입통제 및 방역 시스템 및 방법
JP4702598B2 (ja) 監視システム、監視装置および方法、記録媒体、並びにプログラム
EP3410413B1 (en) Improved generation of alert events based on a detection of objects from camera images
JP5523900B2 (ja) 人物検索装置、人物検索方法、及び人物検索プログラム
JP5003731B2 (ja) 巡回警備支援システム、方法及びプログラム
JP5001930B2 (ja) 動作認識装置及び方法
WO2004004320A1 (en) Digital processing of video images
JP2007158421A (ja) 監視カメラシステム及び顔画像追跡記録方法
JP2018181159A (ja) 防犯システム、防犯方法、及びロボット
KR101754152B1 (ko) 복수 대역 카메라를 이용한 발열환자 감시 시스템 및 이를 이용한 발열환자 감시 방법
JP5718632B2 (ja) 部位認識装置、部位認識方法、及び部位認識プログラム
JP2018018150A (ja) 防犯システム、防犯方法、及びロボット
KR20160074208A (ko) 비콘신호를 이용한 안전 서비스 제공 시스템 및 방법
JP2010238204A (ja) 監視装置および監視方法
KR20210019218A (ko) 스마트 도어
JP2011192157A (ja) 非常通報装置
JP2021196741A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2007206898A (ja) 顔認証装置および入退場管理装置
JP6044633B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6810914B2 (ja) エレベータの遠隔監視システム
JP7039084B1 (ja) セルフレジ監視システム及びセルフレジ監視方法
JP6064995B2 (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110315

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110506

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110705

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110718

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140812

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4797720

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees