JP7254570B2 - 画像センサシステム、計算装置、センシング方法、およびプログラム - Google Patents

画像センサシステム、計算装置、センシング方法、およびプログラム Download PDF

Info

Publication number
JP7254570B2
JP7254570B2 JP2019047005A JP2019047005A JP7254570B2 JP 7254570 B2 JP7254570 B2 JP 7254570B2 JP 2019047005 A JP2019047005 A JP 2019047005A JP 2019047005 A JP2019047005 A JP 2019047005A JP 7254570 B2 JP7254570 B2 JP 7254570B2
Authority
JP
Japan
Prior art keywords
motion information
image sensor
data
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019047005A
Other languages
English (en)
Other versions
JP2020149422A (ja
Inventor
孝明 榎原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2019047005A priority Critical patent/JP7254570B2/ja
Publication of JP2020149422A publication Critical patent/JP2020149422A/ja
Application granted granted Critical
Publication of JP7254570B2 publication Critical patent/JP7254570B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明の実施形態は、画像センサシステム、計算装置、センシング方法、およびプログラムに関する。
近年の画像センサは、CPU(Central Processing Unit)やメモリを備え、いわばレンズ付きの組み込みコンピュータといえる。高度な画像処理機能も有しており、撮影した画像データを分析して、例えば人間の在不在、あるいは人数などを計算することができる。この種の画像センサは、ビル管理システムと組み合わせて、快適性、居住性の向上や省エネルギー化の促進などに活用されようとしている。
再公表WO2013/187047号公報 特許第5903634号明細書 特開2017-215694号公報 再公表WO2010/013572号公報 特開2011-193187号公報
既存のセンサは、特定の場所の明るさや、人間の在不在などを検知できるに留まっているので、照明制御や空調などの用途ごとにセンサを設置する必要があった。このため配線が煩雑になったり、その都度、工事が必要になったりしてエンジニアリング作業の増大を招いていた。画像センサの能力を活かし、可用性を高めたシステムが要望されている。
そこで、目的は、可用性を高めた画像センサシステム、計算装置、センシング方法、およびプログラムを提供することにある。
実施形態によれば、画像センサシステムは、対象をセンシングする複数の画像センサと、画像センサと通信可能な計算装置とを具備する。各画像センサは、撮像部と画像処理部を備える。撮像部は、割り当てられたエリアを撮像して画像データを取得する。画像処理部は、画像データを画像処理してエリアにおける動き情報を検知する。計算装置は、取得部、記憶部、および統合処理部を備える。取得部は、画像センサごとに検知された動き情報を取得する。記憶部は、画像センサごとに割り当てられたエリアと、対象空間のマップとの対応関係を示すマップデータを記憶する。統合処理部は、取得された動き情報をマップデータに基づいて統合して、対象空間における動き情報を計算する。
図1は、実施形態に係る画像センサを備える画像センサシステムの一例を示す模式図である。 図2は、ビルのフロア内の一例を示す図である。 図3は、図1に示される画像センサシステムの一例を示すブロック図である。 図4は、実施形態に係る画像センサの一例を示すブロック図である。 図5は、画像センサ3の基本的な処理手順を示すフローチャートである。 図6は、画像センサ3におけるデータの流れの一例を示す図である。 図7は、実施形態に係る管理端末200の一例を示すブロック図である。 図8は、センサ座標系と基準座標系との関係の一例を示す図である。 図9は、管理端末200の基本的な処理手順を示すフローチャートである。 図10は、管理端末200における動きベクトルのマッピング処理について説明するための図である。 図11は、エリアに重複がある場合の動きベクトルの合成について説明するための図である。 図12は、時系列で検知された動きベクトルの接続について説明するための図である。 図13は、動きベクトルの補間について説明するための図である。 図14は、動きベクトルの補正について説明するための図である。 図15は、動きベクトル基づいて人の位置が予測可能であることを説明するための図である。 図16は、動きベクトルの解析結果に基づくヒートマップの一例を示す図である。 図17は、動きベクトルの解析結果に基づくカラーマップの一例を示す図である。 図18は、管理端末200におけるデータの流れの一例を示す図である。
画像センサは、人感センサ、明かりセンサあるいは赤外線センサ等に比べて多様な情報を取得することができる。魚眼レンズや超広角レンズなどを用いれば1台の画像センサで撮影可能な領域を拡大できるし、画像の歪みは計算処理で補正することができる。視野内のセンシングしたくない領域をマスク設定する機能や、学習機能を備えた画像センサも知られている。
[構成]
図1は、実施形態に係る画像センサを備える画像センサシステムの一例を示す模式図である。図1において、照明機器1、空調機器2、および画像センサ3は、ビル10の例えばフロアごとに設けられ、コントローラ4と通信可能に接続される。各階のコントローラ4は、ビル内ネットワーク500を介して、例えばビル管理センタのBEMS(Building Energy Management System)サーバ5と通信可能に接続される。ビル内ネットワーク500の通信プロトコルとしてはBuilding Automation and Control Networking protocol(BACnet(登録商標))が代表的である。このほかDALI、ZigBee(登録商標)、ECHONET Lite(登録商標)等のプロトコルも知られている。
BEMSサーバ5は、例えばTCP/IP(Transmission Control Protocol / Internet Protocol)ベースの通信ネットワーク300経由で、クラウドコンピューティングシステム(クラウド)600に接続されることができる。クラウド600は、データベース70およびサーバ80を備え、ビル管理等に関するサービスを提供する。
図2に示されるように、照明機器1、空調機器2の吹き出し口、および画像センサ3は各フロアの例えば天井に配設される。画像センサ3には、それぞれのセンシング対象とするエリアが割り当てられる。図2において、エリアA1,A2がそれぞれフロアのおよそ半分をカバーしていることが示される。すべてのエリアを合わせれば、対象空間のフロアをカバーすることができる。図中ハッチングで示すように、異なる画像センサ3の割り当てエリアの一部が重なっていてもよい(重複部分)。
画像センサ3は、視野内に捕えた映像を撮影して画像データを取得する。この画像データは画像センサ3において処理され、人物情報、あるいは環境情報などが計算される。すなわち画像センサ3は、対象空間における対象を検知(センシング)して、この対象に係わる特徴量を算出する。
環境情報は、対象とする空間(ゾーン)の環境に関する情報であり、例えば、フロアの照度や温度等である。人物情報は、対象空間における人間に関する情報である。例えばエリア内の人数、人の行動、人の活動量、人の存在または不在を示す在不在、あるいは、人が歩いているか、または1つの場所に留まっているかを示す歩行滞留などが人物情報の例である。
近年では、人の居住環境においてこれらの情報に基づき照明機器1や空調機器2を制御することで、人の快適性や安全性等を確保することが検討されている。環境情報および人物情報を、ゾーンを複数に分割した小領域ごとに算出することも可能である。この小領域を、画像センサ3ごとの割り当てエリアに対応付けてもよい。
実施形態では、対象の動きを示す動き情報に着目する。動き情報としては、対象の動きの大きさおよび方向を表す、動きベクトルが代表的である。これに代えて、対象の動きの大きさを示す量や、対象の動きの方向を示す量等のスカラー値も、動き情報として理解されることが可能である。
図3は、図1に示される画像センサシステムの一例を示すブロック図である。図3において、BEMSサーバ5の配下に、空調機器2を制御する空調コントローラ41、エレベータを制御するエレベーターコントローラ42、防犯システムを制御する防犯コントローラ43、防災システムを制御する防災コントローラ44、および、照明機器1(1-1、1-2)を制御する照明コントローラ45が、ビル内ネットワーク500経由で接続される。
また、ビル内ネットワーク500に、管理端末200、およびゲートウェイ71,72がBEMSサーバ5と通信可能に接続される。ゲートウェイ71は、複数の画像センサ3(3-1~3-n)を配下として収容する。画像センサ3-1~3-nは、センサネットワーク101により、一筆書き状に接続される(渡り配線)。同様に、画像センサ3-1~3-mが、センサネットワーク102を介してゲートウェイ72の配下に収容される。
センサネットワーク101,102のプロトコルとしては、例えばEtherCAT(登録商標)が知られている。センサネットワーク101は、画像センサ3-1~3-nとゲートウェイ71とを通信可能に接続する。センサネットワーク102は、画像センサ3-1~3-mとゲートウェイ72とを通信可能に接続する。各ゲートウェイ71,72は、それぞれセンサネットワーク101,102とビル内ネットワーク500との間でのプロトコル変換機能を有する。これにより、BEMSサーバ5および管理端末200も、ゲートウェイ71,72経由で画像センサ3-1~3-n、3-1~3-mと相互通信することが可能である。
図4は、実施形態に係る画像センサ3の一例を示すブロック図である。画像センサ3は、撮像部としてのカメラ部31と、メモリ32、プロセッサ33、および通信部34を備える。これらは内部バス35を介して互いに接続される。メモリ32とプロセッサ33を備えることで、画像センサ3はコンピュータとして機能する。
カメラ部31は、魚眼レンズ31a、絞り機構31b、イメージセンサ31cおよびレジスタ30を備える。魚眼レンズ31aは、エリアを天井から見下ろす形で視野に捕え、イメージセンサ31cに結像する。魚眼レンズ31aからの光量は絞り機構31bにより調節される。イメージセンサ31cは例えばCMOS(相補型金属酸化膜半導体)センサであり、例えば毎秒30フレームのフレームレートの映像信号を生成する。この映像信号はディジタル符号化され、画像データとして出力される。
レジスタ30は、カメラ情報30aを記憶する。カメラ情報30aは、例えばオートゲインコントロール機能の状態、ゲインの値、露光時間などの、カメラ部31に関する情報、あるいは画像センサ3それ自体に関する情報である。
例えば、上記フレームレート、イメージセンサ31cのゲインの値、露光時間など、センシングの感度や精度に影響を及ぼすパラメータは、プロセッサ33により制御される。
メモリ32は、SDRAM(Synchronous Dynamic RAM)などの半導体メモリ、またはNANDフラッシュメモリやEPROM(Erasable Programmable ROM)などの不揮発性メモリであり、実施形態に係わる各種の機能をプロセッサ33に実行させるためのプログラム32aと、カメラ部31により取得された画像データ32bを記憶する。さらにメモリ32は、辞書データ32c、および動きベクトルデータ32dを記憶する。
辞書データ32cは、センシング項目と特徴量とを対応づけたテーブル形式のデータであり、例えば機械学習(Machine-Learning)等の手法により生成することが可能である。辞書データ32cを用いた例えばパターンマッチング処理により、エリアにおける検出対象(人など)を識別することが可能である。
動きベクトルデータ32dは、プロセッサ33の画像処理部33aにより生成された、エリアにおける動きベクトルを示すデータである。動きベクトルデータ32dは、例えば予め定められた期間(一日、一週間、あるいは一ヶ月など)にわたってメモリ32に蓄積される。
このほか、メモリ32には、マスク設定データなどが記憶されてもよい。マスク設定データは、カメラ部31に捕えられた視野のうち、画像処理する領域(画像処理の対象領域)と、画像処理しない領域(画像処理の非対象領域)とを区別するために用いられる。
プロセッサ33は、メモリ32に記憶されたプログラムをロードし、実行することで、実施形態において説明する各種の機能を実現する。プロセッサ33は、例えばマルチコアCPU(Central Processing Unit)を備え、画像処理を高速で実行することについてチューニングされたLSI(Large Scale Integration)である。FPGA(Field Programmable Gate Array)等でプロセッサ15を構成することもできる。MPU(Micro Processing Unit)もプロセッサの一つである。
通信部34は、センサネットワーク101(102)に接続可能で、通信相手先(BEMSサーバ5、管理端末200、または他の画像センサ3等)とのデータの授受を仲介する。通信のインタフェースは有線でも無線でもよい。通信ネットワークのトポロジはスター型、リング型など任意のトポロジを適用できる。通信プロトコルは汎用プロトコルでも、産業用プロトコルでもよい。単独の通信方法でもよいし、複数の通信方法を組み合わせてもよい。
特に、通信部34は、画像センサ3によるセンシングデータや、プロセッサ33の処理結果、処理データ、パラメータ、画像データ、動きベクトルデータ、蓄積された過去の動きベクトルデータ、加工された動きベクトルデータ、統計解析データ、出力データ、パラメータ、辞書データ、ファームウェアなどを、通信ネットワークとしてのセンサネットワーク101(102)経由で送受信する。これにより、上記データや情報は、他の画像センサ3、BEMSサーバ5、および管理端末200等と、ビル内ネットワーク500等を経由して共有されることが可能である。
ところで、プロセッサ33は、実施形態に係る処理機能として、画像処理部33a、および制御部33bを備える。画像処理部33a、および制御部33bは、メモリ32に記憶されたプログラム32aがプロセッサ33のレジスタにロードされ、当該プログラムの進行に伴ってプロセッサ33が演算処理を実行することで生成されるプロセスとして、理解され得る。つまりプログラム32aは、画像処理プログラム、および制御プログラムを含む。
画像処理部33aは、画像データ32bを画像処理して、対象エリアにおける動きベクトル(オプティカルフロー)を検知する。これにより得られた動きベクトルデータは、メモリ32に蓄積される(動きベクトルデータ32d)。
動きベクトルの解析に際して、画像データに特有の特徴量を利用することも可能である。特徴量としては、輝度勾配方向ヒストグラム(Histograms of Oriented Gradients:HOG)、コントラスト、解像度、S/N比、および色調などがある。輝度勾配方向共起ヒストグラム(Co-occurrence HOG:Co-HOG)特徴量、Haar-Like特徴量なども特徴量として知られている。
また、画像処理部33aは、在不在、人数、活動量、照度、歩行滞留、および前記動きベクトルを含むセンシング項目のうち、いずれかまたは複数のセンシング項目をセンシングする。エリアごとに、これらの複数のセンシング項目を設定することもできる。画像処理部33aは、エリアをさらに複数に分割したブロックごとに各センシング項目をセンシングし、ブロックごとのセンシング結果を統合して、エリアごとのセンシング結果を得ることも可能である。
制御部33bは、管理端末200からの通知に応じてセンシングの感度を可変する。例えば、他の画像センサのエリアから自らのエリアへと人が移動してくることを通知されると、制御部33bはカメラ部31に制御信号を与えて、デフォルトの状態よりもセンシング感度を高める。センシング感度を高めるには、イメージセンサのゲインを上げたり、物体検知に係わるしきい値を低下させたり、フレームレートを高速化したりするなどの手法がある。
図5は、図4に示される画像処理部33aの基本的な処理手順を示すフローチャートである。図5において、カメラ部31で取得(ステップS1)された画像データ32bは、メモリ32に一時的に記憶されたのち(ステップS2)、画像処理部33aに送られる。画像処理部33aは、画像データ32bを画像処理して、在不在判定(ステップS3)、人数推定(ステップS4)、活動量推定(ステップS5)、照度推定(ステップS6)、歩行滞留判定(ステップS7)、および動きベクトル算出(ステップS8)の各処理を実行し、これらの項目を画像データ32bからセンシングする。
これらのセンシング項目の全てを常時、同時にセンシングしても良い。または、必要に応じて個別にセンシングしてもよい。項目ごとの処理の周期は、例えばフレーム周期に同期して全ての項目で同じであっても良いし、項目ごとに異なっていても良い。
在不在については、例えば背景差分/フレーム間差分/人物認識などを用いて人物領域を抽出し、在不在を判定することができる。ゾーンがエリアに分割されていれば(エリア分割)、エリアごとに人物領域があるか否かを判定し、エリアごとの在不在を推定することができる。さらに、照明変動判定などによる誤検知抑制機能を持たせることも可能である。
人数については、例えば背景差分/フレーム間差分/人物認識などを用いて人物領域を抽出し、人物領域から個人を検知して人数を推定することができる。エリア分割がある場合には、個人の位置を推定し、エリアごとに人数を推定することができる。
活動量については、フレーム間差分などを用いて動き領域を抽出し、活動量を推定することができる。活動量を、例えば、無/小/中/大などのように複数の段階に分類しても良い。あるいはMETs(Metabolic equivalents)等の指標で活動量を表してもよい。さらに、エリア分割の設定があれば、エリアごとに動き領域を抽出し、エリアごとの活動量を推定することができる。
照度については、画像データ32bと、ゲイン、露光時間などのカメラ情報に基づいて推定することができる。カメラ情報(30a)は、カメラ部31のレジスタ30から取得することができる。エリア分割の設定があれば、エリアごとに画像を分割し、分割した画像とカメラ情報からエリアごとの照度を推定することができる。
歩行滞留については、フレーム間差分などを用いて動き領域を抽出し、歩行滞留を判定することができる。エリア分割の設定があれば、エリアごとに動き領域を抽出し、エリアごとの歩行滞留を推定することができる。
動きベクトルについては、画像データ32bを画像処理して、例えばブロックマッチング法、あるいは勾配法などのアルゴリズムにより、動きベクトルを算出することができる。算出された動きベクトルは、メモリ32に蓄積される(動きベクトルデータ32d)。
以上のようにして、各センシング項目のセンシングデータを得ることができる。通信部34は、これらのセンシングデータや項目の算出に係る各種のパラメータなどをセンサネットワーク101(102)経由で管理端末200に通信する(ステップS10)。
図6は、画像センサにおけるデータの流れの一例を示す図である。図6において、カメラ部31で取得された画像データ32bはメモリ32に一時的に記憶されたのち、プロセッサ33の画像処理部33aに送られる。画像処理部33aは、画像データ32bを画像処理して、動きベクトルデータを生成する。得られた動きベクトルデータ32dは、メモリ32に蓄積される。
通信部34は、生成された動きベクトルデータ32dを含む各種のデータを、センサネットワーク101(102)、ゲートウェイ71(または72)、ビル内ネットワーク500経由で管理端末200やBEMSサーバ5に送信する。
図7は、図3に示される管理端末200の一例を示す機能ブロック図である。計算装置の一例としての管理端末200は、CPUやMPU(Micro Processing Unit)等のプロセッサ250と、ROM(Read Only Memory)220およびRAM(Random Access Memory)230を備えるコンピュータである。管理端末200は、さらに、ハードディスクドライブ(Hard Disk Drive:HDD)などの記憶部240、光学メディアドライブ260、通信部270、および、種々の情報を表示するモニタ210を備える。
ROM220は、BIOS(Basic Input Output System)やUEFI(Unified Extensible Firmware Interface)などの基本プログラム、および各種の設定データ等を記憶する。RAM230は、記憶部240からロードされたプログラムやデータを一時的に記憶する。
光学メディアドライブ260は、CD-ROM280などの記録媒体に記録されたディジタルデータを読み取る。管理端末200で実行される各種プログラムは、例えばCD-ROM280に記録されて頒布される。このCD-ROM280に格納されたプログラムは光学メディアドライブ260により読み取られ、記憶部240にインストールされる。
通信部270は、ビル内ネットワーク500経由で画像センサ3、BEMSサーバ5等と通信するための機能を備える。管理端末200で実行される各種プログラムを、例えば通信部270を介してサーバからダウンロードし、記憶部240にインストールすることもできる。通信部270を介してクラウド600(図1)から最新のプログラムをダウンロードし、インストール済みのプログラムをアップデートすることもできる。また、管理端末200は、ビル内ネットワーク500およびゲートウェイ71,72経由で、画像センサ3に辞書データをダウンロード送信することができる。
記憶部240は、プロセッサ250により実行されるプログラム240aに加えて、動きベクトルデータ240b、統計解析データ240c、設計データ240d、および、マップデータ240eを記憶する。
動きベクトルデータ240bは、画像センサ3-1~3-n、3-1~3-mから収集された動きベクトルである。画像センサ3-1~3-n、3-1~3-mは、当該画像センサごとの座標系(センサ座標系と称する)で検知した動きベクトルを送信する。これを収集した管理端末200は、各センサの動きベクトルを、基準座標系における動きベクトルに変換する。基準座標系としては、例えばフロアマップ上の位置を定めるXY座標系を採ることができる。収集直後の動きベクトルデータと、変換後の動きベクトルデータの双方を、動きベクトルデータ240bに含めてもよい。
常時生成される動きベクトルデータを記憶部240に蓄積してもよいし、時間や期間を指定し、その期間だけの動きベクトルデータを蓄積してもよい。また、全ての画像データからの動きベクトルデータを蓄積してもよいし、選択された何れかのの画像データからの動きベクトルデータを蓄積してもよい。
統計解析データ240cは、記憶部240に蓄積された動きベクトルデータ240bを統計的に解析して生成される。
設計データ240dは、画像センサ3-1~3-n、3-1~3-mのそれぞれの、対象空間における設置位置と、カメラ部31(あるいは魚眼レンズ31a)の指向方向等を含むデータである。つまり設計データ240dは、フロアマップ上の各位置座標と、それぞれの画像センサ3の画像データを構成する画素との対応関係を一意に決定するために用いられるデータである。
マップデータ240eは、画像センサ3ごとの割り当てエリアと、対象空間のマップとの対応関係を示すデータである。
プロセッサ250は、OS(Operating System)および各種のプログラムを実行する。また、プロセッサ250は、実施形態に係る処理機能として、取得部250a、マップ作成部250b、統合処理部250c、解析部250d、動きベクトル加工部250e、予測部250f、通知部250g、および、データ加工部250hを備える。
これらの機能ブロックは、プログラム240aがRAM230にロードされ、当該プログラムの実行の過程で生成されるプロセスとして、理解され得る。つまりプログラム240aはコンピュータである管理端末200を、取得部250a、マップ作成部250b、統合処理部250c、解析部250d、動きベクトル加工部250e、予測部250f、通知部250g、および、データ加工部250hとして動作させる。
取得部250aは、画像センサ3-1~3-n、3-1~3-mのそれぞれで検知された動きベクトルデータを取得する。取得された動きベクトルデータは、記憶部240に記憶される(動きベクトルデータ240b)。
マップ作成部250bは、設計データ240dに基づいてマップデータ240eを作成する。すなわちマップ作成部250bは、各画像センサ3の設置位置や向き、さらには、配線や通信順などのデータに基づいて、マップデータ240eを生成する。
図8は、センサ座標系と基準座標系との関係の一例を示す図である。画像センサ3A,3B,3C,3Dを例にとり、それぞれの割り当てエリアは4×4の16個のブロックで構成されるとする。図8おいて、広さ順にフロア>エリア>ブロックの関係があるとする。
図8において、画像センサ3A,3B,3C,3Dは、自らの割り当てエリアにおける動きベクトルをそれぞれのセンサ座標系で検知し、管理端末200に通知する。管理端末200は、通知された動きベクトルを統合し、全てのエリアを合わせた4×4×4=6ブロック分のフロアマップ上での動きベクトルを算出する。この算出された動きベクトルが、すなわち基準座標系で表されるものになる。
画像センサ3A,3B,3C,3Dの基準座標系における位置(X,Y)、および取り付け向きθは設計データ240dに記録されているので、これらの情報に基づいて座標変換を行うことができる。画像センサ3で撮像された画像データの各画素は、各画像センサ3において、画像中心からの距離と角度で表現できる。そして、基準座標系におけるマップ上の画像センサ3の設置位置と設置向きとが分かれば、画像センサ3の各画素の位置とマップ上の位置との対応付けを行うことができる。各画素の対応位置をマップデータ240eに格納しても良いし、都度、計算しても良い。
統合処理部250cは、画像センサ3ごとの動きベクトルデータをマップデータ240eに基づいて統合して、対象空間における動きベクトルを計算する。すなわち統合処理部250cは、マップデータ240eに基づいて、複数の画像センサ3の動きベクトルデータをフロアマップに対応付けたマップ対応データを作成する。なお、動きベクトルの統合とは、複数の動きベクトルを単に接続するだけでなく、統計的な処理に基づく補間、あるいは補正などの処理を含んでもよい。
また、統合処理部250cは、画像センサ同士の割り当てエリアの重複部分においては、各画像センサでそれぞれ検知された動きベクトルを互いに整合させるための処理を行う。例えば、二つの動きベクトルを1:1で均等に合成してもよいし、何れかに重みをつけてもよい。統合処理部250cは、個々の画像センサによる動きベクトルを全体として最適となるように合成し、マップ全体を対象として接続する。これにより、フロアマップ全体で整合を取りつつ、動きベクトルを合成することができる。
解析部250dは、記憶部240に蓄積された動きベクトルデータ240bを統計的に解析し、統計解析データ240cを生成する。統計解析により、局所での動きベクトルからフロア全体での各種事象を判定することができる。統計解析にはリアルタイムデータ、または蓄積データのいずれを用いてもよい。解析方法としては、動きベクトルの分布を解析したり、重ね合わせてヒートマップ解析したり、動きベクトルを重ね合わせて軌跡推定したりする。例えば混雑度、群衆行動、レイアウト推定、待ち行列推定、オフィスの使用率、工場の稼働状況などの事象を定量的に求めることができる。また、対象の移動速度やその変化、移動距離などを推定し、解析することもできる。さらに、工場の設備など、稼働状況を推定してもよい。
動きベクトル加工部250eは、例えば統計解析データ240cを参照し、フロアマップ上での動きベクトルを補完、あるいは補正する。例えば、魚眼レンズを使用することに伴って生じる画像の歪みに対応するため、動きベクトル加工部250eは、動きベクトルを補正する。
予測部250fは、統計解析データ240cに基づいて、フロアにおける対象(人(HUMAN)など:図8)の動きを予測する。
通知部250gは、予測部250fによる予測の結果、エリアを跨いでの人の移動が発生することが予測されると、移動先のエリアを受け持つ画像センサにそのことを通知する。例えば図8において、画像センサ3Dのエリアにいる人が画像センサ3Bのエリアに移動することが予測されると、通知部250gは、『画像センサ3Dのエリアから人が移動してくる』ことを、画像センサ3Bに通知する。つまり、移動元エリア(画像センサ3Dのエリア)から人が移動してくることが、移動先のエリア(画像センサ3Bのエリア)を受け持つ画像センサ3Bに通知される。通知を受けた画像センサ3Bは、必要に応じて、センシング感度を可変する等の制御を行う。
このほか通知部250gは、算出された動きベクトルデータ240bをビル内ネットワーク500経由でBEMSサーバ5に送信し、例えばシステム管理者に各種の情報を通知する。また、対象空間に混雑が発生したり、人流が乱れたり、設備の動きが異常になったなどの事象が検知されると、通知部250gは、その旨を通信ネットワーク経由で管理者に通知する。
データ加工部250hは、動きベクトルデータ240bおよび統計解析データ240cのいずれか、またはその両方を加工し、出力用データを生成する。例えば、フロアにおける人の移動の様子や混雑度、あるいは動線などをカラーマップで表示するためのデータ(表示画像など)をデータ加工部250hは生成する。生成されたデータはビル内ネットワーク500経由でBEMSサーバ5等に送信される。
[作用]
図9は、管理端末200の基本的な処理手順を示すフローチャートである。図9において、管理端末200は、各画像センサ3から、それぞれの画像センサ3において個別に検知された動きベクトルデータを取得し(ステップS20)、記憶部240に蓄積する(ステップS21)。次に管理端末200は、統合処理部250cにより、上記蓄積された動きベクトルを共通の座標系にマッピングする(ステップS22)。
図10(a)、および図10(b)を、それぞれ異なる画像センサにおいて検知された動きベクトルとする。これらの動きベクトルを、管理端末200はマップデータ240eに基づいて統合し、フロアマップに対応する動きベクトルデータ(図10(c))を算出する。
図11(a),(b)に示されるように、異なる画像センサの割り当てエリアに重複部分がある場合には、統合処理部250cはそれぞれの画像センサで検知された動きベクトルを互いに整合させて合成する(図11(c))。
図12(a),(b),(c)は、時系列的に変化する動きベクトルがこの順で検知されたことを示す。このような動きベクトルが観測された場合、管理端末200は、複数の画像センサの時間軸上での動きベクトルを統計的に解析し、図12(d)に示されるように、マップ全体を対象として動きベクトルを接続する。
さらに管理端末200は、図9のフローチャートにおいて、統計解析データ240cに基づき、マップ全体での動きベクトルから局所的な動きベクトルを補完および/または補正する(ステップS23)。
図13(a)および(c)の間の動きベクトルが図13(c)のように欠損していたとしても、例えば統計解析データ240cを用いることで、図13(d)に示されるように動きベクトルを補完することができる。
図14(a)および(c)に着目すると、図14(b)の動きベクトルは、時系列的な関係を満たさないので誤差を含むことがわかる。そこで管理端末200は、例えば統計解析データ240cを用いて動きベクトルを補正し、図14(d)に示される補正後の動きベクトルを算出する。
補間および補正を経たマップ全体での動きベクトルが得られると、管理端末200は、マップ全体での動きベクトルを統計的に解析し、統計解析データを作成する。この統計解析データに基づき、管理端末200は、フロア上で発生する各種の事象を判定する(ステップS24)。
図15に示されるように、管理端末200は、マップ全体での動きベクトルに基づいて人の移動先の位置(またはエリア)を予測する。判定された事象および予測位置は、ビル内ネットワーク500および通信ネットワーク経由で、BEMSサーバ5や管理者等に通知される。さらに管理端末200は、図16に示されるような、マップ全体での動きベクトルの見える化画像を作成する(ステップS25)。
図16は、動きベクトルの分布、方向、密度などを色分けして示す画像(ヒートマップ)の一例を示す図である。例えば、人が良く通るエリア(動きベクトルが密)を赤色、人があまり通らないエリア(動きベクトルが疎)を黄色、その中間をオレンジなどの色分けで示すことにより(カラーマップ)、例えばフロアにおける混雑度や動線を一目で把握することができる。もちろん、動きベクトルの長さ(大きさ)や方向に応じて色分けしてもよい。この種のヒートマップは、例えばオフィスフロア、空港、あるいは駅のコンコースなどに適用することが可能である。
動きベクトルの解析結果を活用することで、オフィスや店舗、公共施設や工場などの現状を把握し、改善を図ることができる。例えば以下の2例が代表的である。
(1) オフィス改善の例
会議室などの利用率を分析し、利用率の低い領域を別の用途に変更する。フリーアドレスのオフィスや兼務者の領域などの在席率を推定し、不要な領域を別の用途に変更する。動線がスマートなレイアウトに変更する。
(2) 店舗改善の例
人通りの多いところに広告を表示する。動線に合わせて関連商品を配置する。
あるいは、食堂などの混雑上状況をほぼリアルタイムで把握し、利用者のスマートフォンに表示する、などのアプリケーションも考えられる。
図17に示されるように、所定の空間(食堂など)のエリアごとに混雑状況を色分けし、Web経由でアクセス可能なヒートマップとして公開すれば、利用者への便宜を図ることができる。
図18は、管理端末200におけるデータの流れの一例を示す図である。図18において、統合処理部250cは、記憶部240に蓄積されたマップデータ240eを読み出し、統合して、マップ上での動きベクトルデータ240bを生成する。解析部250dはこの動きベクトルデータ240bを解析し、動きベクトル加工部250eによって動きベクトルの補完、補正処理が行われる。また、データ加工部250hにより、動きベクトルに基づくヒートマップ、カラーマップ、人の移動の様子や混雑状況、動線などのデータが作成され、通信部270経由でBEMSサーバ5などに送信される。
[効果]
以上説明したようにこの実施形態では、複数の画像センサ3でセンシングされた動きベクトルを管理端末200に収集/蓄積し、基準座標系における統合された動きベクトルを算出するようにした。また、このようにして得たフロアマップ上での動きベクトルを統計的に解析し、対象空間における統計解析データを生成するようにした。これにより空間全体での動線や利用率、混雑度などを推定することが可能になる。
また実施形態では、動きベクトルの解析により得られる情報を管理者などに通知するようにした。例えば、混雑が発生した、人流が乱れた、設備の動きが異常になったなどの情報を管理者に通知することができる。
また、解析の結果から制御指示を生成し、各種機器を制御してもよい。例えば、在不在/歩行滞留/推定照度による照明制御/空調制御、推定人数/活動量による空調制御、指定人数によるエレベータ運行制御、あるいはセキュリティドアの開閉制御などに適用可能である。
これらのことから、実施形態によれば、可用性を高めた画像センサシステム、計算装置、センシング方法およびプログラムを提供することが可能になる。
なお、この発明は上記実施形態に限定されるものではない。例えば、計算装置としての管理端末200に実装した各種機能を、ゲートウェイ71,72、あるいはBEMSサーバ5に実装してもよい。
また、人の移動が予測されると、移動先エリアを受け持つ画像センサにそのことを通知し、画像センサ側でセンシング感度などの制御量を決めるようにした。これに代えて、通知先の画像センサにおける制御量を管理端末200の側で計算し、得られた制御量を画像センサ側に通知するようにしてもよい。
本発明の実施形態を説明したが、この実施形態は例として提示するものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1…照明機器、2…空調機器、3,3-1~3-m,3-1~3-n…画像センサ、3A,3B,3C,3D…画像センサ、4…コントローラ、5…BEMSサーバ、10…ビル、15…プロセッサ、30…レジスタ、30a…カメラ情報、31…カメラ部、31a…魚眼レンズ、31b…絞り機構、31c…イメージセンサ、32…メモリ、32a…プログラム、32b…画像データ、32c…辞書データ、32d…動きベクトルデータ、33…プロセッサ、33a…画像処理部、33b…制御部、34…通信部、35…内部バス、41…空調コントローラ、42…エレベーターコントローラ、43…防犯コントローラ、44…防災コントローラ、45…照明コントローラ、70…データベース、71,72…ゲートウェイ、80…サーバ、101,102…センサネットワーク、200…管理端末、210…モニタ、220…ROM、230…RAM、240…記憶部、240a…プログラム、240b…動きベクトルデータ、240c…統計解析データ、240d…設計データ、240e…マップデータ、250…プロセッサ、250a…取得部、250b…マップ作成部、250c…統合処理部、250d…解析部、250e…動きベクトル加工部、250f…予測部、250g…通知部、250h…データ加工部、260…光学メディアドライブ、270…通信部、300…通信ネットワーク、500…ビル内ネットワーク、600…クラウド。

Claims (17)

  1. 対象をセンシングする複数の画像センサと、
    前記画像センサと通信可能な計算装置とを具備し、
    前記画像センサは、
    割り当てられたエリアを撮像して画像データを取得する撮像部と、
    前記画像データを画像処理して前記エリアにおける動き情報を検知する画像処理部と
    前記センシングの感度を可変する制御部とを備え、
    前記計算装置は、
    前記画像センサごとに検知された動き情報を取得する取得部と、
    前記画像センサごとに割り当てられたエリアと、対象空間のマップとの対応関係を示すマップデータを記憶する記憶部と、
    前記取得された動き情報を前記マップデータに基づいて統合して、前記対象空間における動き情報を計算する統合処理部と
    前記取得された動き情報を蓄積する蓄積部と、
    前記蓄積された動き情報を統計的に解析して統計解析データを生成する解析部と、
    前記統計解析データに基づいて前記対象の動きを予測する予測部と、
    前記対象の移動先エリアを割り当てられた画像センサに、前記予測の結果に基づいて当該対象の移動を通知する通知部とを備え、
    前記制御部は、
    前記通知に応じて前記センシングの感度を可変する、画像センサシステム。
  2. 前記制御部は、フレームレート、前記撮像部のゲインの値、および露光時間の少なくともいずれかを制御して、前記センシングの感度を可変する、請求項1に記載の画像センサシステム。
  3. 前記計算装置は、前記統計解析データに基づいて前記動き情報を補完および/または補正する動き情報加工部をさらに備える、請求項に記載の画像センサシステム。
  4. 前記解析部は、前記統計解析データに基づいて、前記対象空間における動線、利用率、混雑度、群衆行動、レイアウト推定、待ち行列推定、オフィスの使用率、および、工場の稼働状況の少なくともいずれかを推定する、請求項に記載の画像センサシステム。
  5. 前記解析部は、前記動き情報の解析結果に基づいて、前記動き情報の分布、方向、および密度の少なくともいずれかを色分けして示すカラーマップを作成する、請求項に記載の画像センサシステム。
  6. 前記計算装置は、前記動き情報または前記統計解析データの少なくともいずれか一方を加工して出力用データを生成するデータ加工部をさらに備える、請求項に記載の画像センサシステム。
  7. 前記記憶部は、
    前記複数の画像センサの設置位置および前記撮像部の指向方向を含む設計データを記憶し、
    前記計算装置は、前記設計データに基づいて前記マップデータを作成するマップ作成部をさらに備える、請求項1に記載の画像センサシステム。
  8. 前記統合処理部は、
    異なる画像センサに割り当てられたエリアの重複部分において、当該異なる画像センサでそれぞれ検知された動き情報を互いに整合させて前記対象空間における動き情報を計算する、請求項1に記載の画像センサシステム。
  9. 前記統合処理部は、
    異なる画像センサで検知された前記動き情報を時系列順に接続して前記対象空間における動き情報を計算する、請求項1に記載の画像センサシステム。
  10. 前記動き情報は、前記対象空間における前記対象の動きの大きさを示す量である、請求項1に記載の画像センサシステム。
  11. 前記動き情報は、前記対象空間における前記対象の動きの方向を示す量である、請求項1に記載の画像センサシステム。
  12. 前記動き情報は、前記対象空間における前記対象の動きの大きさおよび方向を含む動きベクトルである、請求項1に記載の画像センサシステム。
  13. 前記画像処理部は、前記対象空間における在不在、人数、活動量、照度、歩行滞留、人物認識、属性識別および前記動き情報を含むセンシング項目のうち複数のセンシング項目をセンシングする、請求項1に記載の画像センサシステム。
  14. 前記解析部は、前記カラーマップを、前記対象空間の領域ごとに混雑状況を色分けし、Web経由でアクセス可能なヒートマップとして公開する、請求項5に記載の画像センサシステム。
  15. 対象をセンシングして、割り当てエリアにおける動き情報を検知する複数の画像センサと通信可能な計算装置であって、
    前記画像センサごとに検知された動き情報を取得する取得部と、
    前記画像センサごとに割り当てられたエリアと、対象空間のマップとの対応関係を示すマップデータを記憶する記憶部と、
    前記取得された動き情報を前記マップデータに基づいて統合して、前記対象空間における動き情報を計算する統合処理部と、
    前記取得された動き情報を蓄積する蓄積部と、
    前記蓄積された動き情報を統計的に解析して統計解析データを生成する解析部と、
    前記統計解析データに基づいて前記対象の動きを予測する予測部と、
    前記対象の移動先エリアを割り当てられた画像センサに、前記予測の結果に基づいて当該対象の移動を通知する通知部とを備える、計算装置。
  16. コンピュータにより実行されるセンシング方法であって、
    前記コンピュータが、対象をセンシングして割り当てエリアにおける動き情報を検知する複数の画像センサから、当該画像センサごとに検知された動き情報を取得する過程と、
    前記コンピュータが、前記画像センサごとに割り当てられたエリアと対象空間のマップとの対応関係を示すマップデータに基づいて、前記取得された動き情報を統合して、前記対象空間における動き情報を計算する過程と、
    前記コンピュータが、前記取得された動き情報を蓄積する過程と、
    前記コンピュータが、前記蓄積された動き情報を統計的に解析して統計解析データを生成する過程と、
    前記コンピュータが、前記統計解析データに基づいて前記対象の動きを予測する過程と、
    前記コンピュータが、前記対象の移動先エリアを割り当てられた画像センサに、前記予測の結果に基づいて当該対象の移動を通知する過程と、
    前記画像センサが、前記通知に応じて前記センシングの感度を可変する過程とを具備する、センシング方法。
  17. 対象をセンシングして割り当てエリアにおける動き情報を検知する複数の画像センサと通信可能なコンピュータに、
    前記画像センサごとに検知された動き情報を取得する過程と、
    前記画像センサごとに割り当てられたエリアと対象空間のマップとの対応関係を示すマップデータに基づいて、前記取得された動き情報を統合して、前記対象空間における動き情報を計算する過程と、
    前記取得された動き情報を蓄積する過程と、
    前記蓄積された動き情報を統計的に解析して統計解析データを生成する過程と、
    前記統計解析データに基づいて前記対象の動きを予測する過程と、
    前記対象の移動先エリアを割り当てられた画像センサに、前記予測の結果に基づいて当該対象の移動を通知する過程とを実行させる、プログラム。
JP2019047005A 2019-03-14 2019-03-14 画像センサシステム、計算装置、センシング方法、およびプログラム Active JP7254570B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019047005A JP7254570B2 (ja) 2019-03-14 2019-03-14 画像センサシステム、計算装置、センシング方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019047005A JP7254570B2 (ja) 2019-03-14 2019-03-14 画像センサシステム、計算装置、センシング方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2020149422A JP2020149422A (ja) 2020-09-17
JP7254570B2 true JP7254570B2 (ja) 2023-04-10

Family

ID=72430610

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019047005A Active JP7254570B2 (ja) 2019-03-14 2019-03-14 画像センサシステム、計算装置、センシング方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP7254570B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000069346A (ja) 1998-06-12 2000-03-03 Canon Inc カメラ制御装置、方法、カメラ、追尾カメラシステム及びコンピュ―タ読み取り可能な記憶媒体
JP2015049532A (ja) 2013-08-29 2015-03-16 株式会社日立製作所 映像監視システム、映像監視方法、映像監視システム構築方法
JP2018032950A (ja) 2016-08-23 2018-03-01 キヤノン株式会社 情報処理装置及びその方法、コンピュータプログラム
JP2018055724A (ja) 2017-12-21 2018-04-05 株式会社東芝 ビル設備制御システム及び画像センサ装置
JP2018116692A (ja) 2017-01-13 2018-07-26 キヤノン株式会社 人流解析装置およびシステム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000069346A (ja) 1998-06-12 2000-03-03 Canon Inc カメラ制御装置、方法、カメラ、追尾カメラシステム及びコンピュ―タ読み取り可能な記憶媒体
JP2015049532A (ja) 2013-08-29 2015-03-16 株式会社日立製作所 映像監視システム、映像監視方法、映像監視システム構築方法
JP2018032950A (ja) 2016-08-23 2018-03-01 キヤノン株式会社 情報処理装置及びその方法、コンピュータプログラム
JP2018116692A (ja) 2017-01-13 2018-07-26 キヤノン株式会社 人流解析装置およびシステム
JP2018055724A (ja) 2017-12-21 2018-04-05 株式会社東芝 ビル設備制御システム及び画像センサ装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
疋田 葉留 他,複数のカメラによる耐故障性を有する自律分散人流計測システム,情報処理学会 研究報告 コンピュータビジョンとイメージメディア(CVIM) 2017-CVIM-205 [online],日本,情報処理学会,2017年01月12日

Also Published As

Publication number Publication date
JP2020149422A (ja) 2020-09-17

Similar Documents

Publication Publication Date Title
JP6270433B2 (ja) 情報処理装置、情報処理方法、情報処理システム
JP5121258B2 (ja) 不審行動検知システム及び方法
US11184968B2 (en) Occupancy sensor calibration and occupancy estimation
US11526161B2 (en) People flow estimation system and the failure processing method thereof
EP2971987A1 (en) Energy saving heating, ventilation, air conditioning control system
JP7463582B2 (ja) センシングシステム、保守端末装置、データ配布方法、および画像センサ
WO2017072158A1 (en) A system and method for determining the location and occupancy of workspaces
US20170276549A1 (en) System and method for monitoring abnormal behavior
JP5147760B2 (ja) 画像監視装置
JP2012128877A (ja) 不審行動検知システム及び方法
WO2019087742A1 (ja) 画像センサ、センシング方法、制御システム及びプログラム
Rajabi et al. MODES: M ulti-sensor o ccupancy d ata-driven e stimation s ystem for smart buildings
JP7254570B2 (ja) 画像センサシステム、計算装置、センシング方法、およびプログラム
JP7419095B2 (ja) 画像センサ、計算装置、および画像センサシステム
JP7156844B2 (ja) 情報処理方法、情報処理装置およびプログラム
JP2007243270A (ja) 映像監視システムおよび方法
JP7237499B2 (ja) 画像センサ、センシング方法、制御システム及びプログラム
JP2022117761A (ja) センサシステム、画像センサ、サーバ装置、センシング方法、およびプログラム
JP6524201B2 (ja) ビル設備制御システム及び画像センサ装置
JP7286747B2 (ja) 画像センサ、動体検知方法、プログラムおよび制御システム
JP7002912B2 (ja) 画像センサ、人物検知方法、プログラムおよび制御システム
JP7237713B2 (ja) センサシステム、画像センサ、およびセンシング方法
JP7145693B2 (ja) 座席状態センシングシステム、座席状態判定方法、および画像センサ
JP6880154B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP2023023492A (ja) 画像センサシステム、計算装置、センシング方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221107

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230329

R150 Certificate of patent or registration of utility model

Ref document number: 7254570

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150