JP7419095B2 - 画像センサ、計算装置、および画像センサシステム - Google Patents

画像センサ、計算装置、および画像センサシステム Download PDF

Info

Publication number
JP7419095B2
JP7419095B2 JP2020024263A JP2020024263A JP7419095B2 JP 7419095 B2 JP7419095 B2 JP 7419095B2 JP 2020024263 A JP2020024263 A JP 2020024263A JP 2020024263 A JP2020024263 A JP 2020024263A JP 7419095 B2 JP7419095 B2 JP 7419095B2
Authority
JP
Japan
Prior art keywords
data
image
image sensor
unit
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020024263A
Other languages
English (en)
Other versions
JP2021128678A (ja
Inventor
孝明 榎原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2020024263A priority Critical patent/JP7419095B2/ja
Publication of JP2021128678A publication Critical patent/JP2021128678A/ja
Application granted granted Critical
Publication of JP7419095B2 publication Critical patent/JP7419095B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、画像センサ、計算装置、および画像センサシステムに関する。
近年の画像センサは、CPU(Central Processing Unit)やメモリを備え、いわばレンズ付きの組み込みコンピュータといえる。高度な画像処理機能も有しており、撮影した画像データを分析して、例えば人間の在不在、あるいは人数などを計算することができる。この種の画像センサは、ビル管理システムと組み合わせて、快適性、居住性の向上や省エネルギー化の促進などに活用されようとしている。
特許第4667508号明細書 特許第5739722号明細書
セキュリティシステム等で用いられる既存の監視カメラは、斜め見下し画角で据え付けられた望遠カメラにより、異常状態の人物(倒れているなど)を検知するものであった。しかしながら斜め見下し画角で撮影された画像は汎用性に乏しく、他の用途への転用が効かない。真下見下し画角のもとで取得した画像データを解析して多様なセンシングデータを得る画像センサにおいても、例えば異常状態の人物を検知できるようにすることが望まれる。
そこで、目的は、画角によらずセンシングデータを正確に検知できるようにした画像センサ、計算装置、および画像センサシステム、を提供することにある。
実施形態によれば、画像センサは、撮像部、記憶部、変換部、および画像処理部を備える。撮像部は、エリアを撮像して画像データを取得する。記憶部は、検知対象について予め作成された辞書データを記憶する。変換部は、取得された画像データ、または、当該画像データから抽出された特徴量を辞書データに応じて変換して変換データを作成する。画像処理部は、辞書データを用いて変換データを処理して、エリアにおけるセンシングデータを生成する。
図1は、実施形態に係る画像センサを備える画像センサシステムの一例を示す模式図である。 図2は、ビルのフロア内の一例を示す図である。 図3は、図1に示される画像センサシステムの一例を示すブロック図である。 図4は、実施形態に係る画像センサの一例を示すブロック図である。 図5は、画像センサ3の基本的な処理手順を示すフローチャートである。 図6は、画像センサ3におけるデータの流れの一例を示す図である。 図7は、実施形態に係るゲートウェイ装置7の一例を示すブロック図である。 図8は、画像センサ3で取得された画像データの一例を示す図である。 図9は、画像センサ3で取得された画像データの視野をパノラマ化して得られる学習画像の一例を示す図である。 図10は、画像センサ3で取得された画像データを回転して得られる学習画像の一例を示す図である。 図11は、画像センサ3で取得された画像データを縮小して得られる学習画像の一例を示す図である。 図12は、画像センサ3で取得された画像データを拡大して得られる学習画像の一例を示す図である。 図13は、画像センサ3の視野の歪みを補正して得られる学習画像の一例を示す図である。 図14は、特徴量に対して変換処理を施す一例を示す図である。 図15は、画像データに含まれる、向きの異なる学習画像の一例を示す図である。 図16は、画像データに含まれる、サイズの異なる学習画像の一例を示す図である。 図17は、人物の異なる姿勢、向きごとに学習データを作成できることの一例を示す図である。 図18は、分割した画像データの各領域ごとに、学習データを作成できることを説明するための図である。 図19は、分割したパノラマ画像の各領域ごとに、学習データを作成できることを説明するための図である。 図20は、回転により学習画像の数を増やせることを説明するための図である。 図21は、位置をわずかにずらすことにより学習画像の数を増やせることを説明するための図である。
画像センサは、人感センサ、明かりセンサあるいは赤外線センサ等に比べて多様な情報を取得することができる。魚眼レンズや超広角レンズなどを用いれば1台の画像センサで撮影可能な領域を拡大できるし、画像の歪みは計算処理で補正することができる。視野内のセンシングしたくない領域をマスク設定する機能や、学習機能を備えた画像センサも知られている。
[構成]
図1は、実施形態に係る画像センサを備える画像センサシステムの一例を示す模式図である。図1において、照明設備1、照明コントローラ4、および画像センサ3(3-1~3-n)は、ビル400の例えばフロアごとに設けられ、ゲートウェイ装置7と通信可能に接続される。各階のゲートウェイ装置7は、ビル内ネットワーク8を介して、例えばビル管理センタのBEMS(Building Energy Management System)サーバ5と通信可能に接続される。
BEMSサーバ5は、例えばTCP/IP(Transmission Control Protocol / Internet Protocol)ベースの通信ネットワーク10経由で、クラウドコンピューティングシステム(クラウド)100に接続されることができる。クラウド100は、サーバ200およびデータベース300を備え、ビル管理等に関するサービスを提供する。
図2に示されるように、照明設備1、空調機器2の吹き出し口、および画像センサ3は各フロアの例えば天井に配設される。画像センサ3には、それぞれのセンシング対象とするエリアが割り当てられる。図2において、エリアA1,A2がそれぞれフロアのおよそ半分をカバーしていることが示される。すべてのエリアを合わせれば、対象空間のフロアをカバーすることができる。図中ハッチングで示すように、異なる画像センサ3の割り当てエリアの一部が重なっていてもよい(重複部分)。
画像センサ3は、割り当てられたエリアを見下し画角で視野内に捉え、視野内の映像を撮影して画像データを取得する。この画像データは画像センサ3において処理され、人物情報、あるいは環境情報などが計算される。すなわち画像センサ3は、対象空間における対象を検知(センシング)して、この対象に係わるセンシングデータを算出する。
環境情報は、対象とする空間(ゾーン)の環境に関する情報であり、例えば、フロアの照度や温度等である。人物情報は、対象空間における人間に関する情報である。例えばエリア内の人数、人の行動、人の活動量、人の存在または不在を示す在不在、あるいは、人が歩いているか、または1つの場所に留まっているかを示す歩行滞留などが人物情報の例である。
近年では、人の居住環境においてこれらの情報に基づき照明機器や空調機器を制御することで、人の快適性や安全性等を確保することが検討されている。環境情報および人物情報を、ゾーンを複数に分割した小領域ごとに算出することも可能である。この小領域を、画像センサ3ごとの割り当てエリアに対応付けてもよい。
図3は、図1に示される画像センサシステムの一例を示すブロック図である。図3において、ゲートウェイ装置7は、複数の画像センサ3(3-1~3-n)を配下として収容する。画像センサ3-1~3-nは、センサネットワーク9により、一筆書き状に接続される(渡り配線)。センサネットワーク9は、画像センサ3-1~3-nとゲートウェイ装置7とを通信可能に接続する。センサネットワーク9のプロトコルとしては、例えばEtherCAT(登録商標)が知られている。
一方、ゲートウェイ装置7は、ビル内ネットワーク8に接続される。ビル内ネットワーク8には、管理端末20、BEMSサーバ5、および照明コントローラ4が接続される。ゲートウェイ装置7は、センサネットワーク9とビル内ネットワーク8との間での通信プロトコルを変換する。これにより、BEMSサーバ5および管理端末20も、ゲートウェイ装置7経由で画像センサ3-1~3-nと相互通信することが可能である。
ビル内ネットワーク8の通信プロトコルとしてはBuilding Automation and Control Networking protocol(BACnet(登録商標))が代表的である。このほかDALI、ZigBee(登録商標)、ECHONET Lite(登録商標)等のプロトコルも知られている。
図4は、実施形態に係る画像センサ3の一例を示すブロック図である。画像センサ3は、撮像部31、メモリ32、プロセッサ33、および通信部34を備える。これらは内部バス35を介して互いに接続される。メモリ32とプロセッサ33を備える画像センサ3は、コンピュータとして機能する。
撮像部31は、魚眼レンズ31a、絞り機構31b、イメージセンサ31cおよびレジスタ30を備える。魚眼レンズ31aは、エリアを天井から見下ろす形で視野に捕え、イメージセンサ31cに結像する。魚眼レンズ31aからの光量は絞り機構31bにより調節される。イメージセンサ31cは例えばCMOS(相補型金属酸化膜半導体)センサであり、例えば毎秒30フレームのフレームレートの映像信号を生成する。この映像信号はディジタル符号化され、画像データとして出力される。画像データはメモリ32に記憶される(画像データ32b)。
レジスタ30は、カメラ情報30aを記憶する。カメラ情報30aは、例えばオートゲインコントロール機能の状態、ゲインの値、露光時間などの、撮像部31に関する情報、あるいは画像センサ3それ自体に関する情報である。例えば、上記フレームレート、イメージセンサ31cのゲインの値、露光時間など、センシングの感度や精度に影響を及ぼすパラメータは、プロセッサ33により制御される。
メモリ32は、SDRAM(Synchronous Dynamic RAM)などの半導体メモリ、またはNANDフラッシュメモリやEPROM(Erasable Programmable ROM)などの不揮発性メモリである。メモリ32は、プロセッサ33を機能させるためのプログラム32aと、画像データ32b、変換データ32c、および、検知対象のデータについて予め作成された辞書データ32dを記憶する。
辞書データ32dは、画像データからセンシングデータを生成するために用いられるデータであり、例えばSVM(Support Vector Machine)などの機械学習(Machine-Learning)の枠組みを用いた手法により、生成することが可能である。機械学習における識別機が使用する辞書データについては、多数の文献に開示されている。辞書データ32dを用いた例えばパターンマッチング処理により、エリアにおける検出対象(人など)を識別することが可能である。なお、1つのセンシング項目に、複数の辞書データ32dを用いても良い。また、複数のセンシング項目に共通して、1つの辞書データ32dを用いても良い。
さらにメモリ32は、センシングデータ32e、および特徴量を32fを記憶する。このほか、メモリ32には、マスク設定データなどが記憶されてもよい。マスク設定データは、撮像部31に捕えられた視野のうち、画像処理する領域(画像処理の対象領域)と、画像処理しない領域(画像処理の非対象領域)とを区別するために用いられる。
プロセッサ33は、メモリ32に記憶されたプログラムをロードし、実行することで、実施形態において説明する各種の機能を実現する。プロセッサ33は、例えばマルチコアCPU(Central Processing Unit)を備え、画像処理を高速で実行することについてチューニングされたLSI(Large Scale Integration)である。MPU(Micro Processing Unit)、あるいはFPGA(Field Programmable Gate Array)等でプロセッサ15を構成することもできる。
通信部34は、センサネットワーク9に接続可能で、通信相手先(ゲートウェイ装置7、管理端末20、他の画像センサ3、あるいはBEMSサーバ5等)とのデータの授受を仲介する。通信のインタフェースは有線でも無線でもよい。通信ネットワークのトポロジはスター型、リング型など任意のトポロジを適用できる。通信プロトコルは汎用プロトコルでも、産業用プロトコルでもよい。単独の通信方法でもよいし、複数の通信方法を組み合わせてもよい。
特に、通信部34は、画像センサ3によるセンシングデータや、プロセッサ33の処理結果、処理データ、パラメータ、画像データ、動きベクトルデータ、蓄積された過去の動きベクトルデータ、加工された動きベクトルデータ、統計解析データ、出力データ、パラメータ、辞書データ、ファームウェアなどを、通信ネットワークとしてのセンサネットワーク9経由で送受信する。これにより、上記データや情報は、ゲートウェイ装置7、他の画像センサ3、BEMSサーバ5、および管理端末20等と、ビル内ネットワーク8等を経由して共有されることが可能である。
ところで、プロセッサ33は、実施形態に係る処理機能として、画像処理部33a、変換部33b、抽出部33c、および統合処理部33dを備える。画像処理部33a、変換部33b、抽出部33c、および統合処理部33dは、メモリ32に記憶されたプログラム32aがプロセッサ33のレジスタにロードされ、当該プログラムの進行に伴ってプロセッサ33が演算処理を実行することで生成されるプロセスとして、理解され得る。
このうち抽出部33cは、画像データ32bから、当該画像データ32bの特徴量を抽出する。抽出された特徴量はメモリ32に記憶される(特徴量32f)。
変換部33bは、辞書データ32dに応じて画像データ32bを変換して、変換データ32cを作成する。また、変換部33bは、辞書データ32dに応じて特徴量32fを変換して、変換データ32cを作成する。作成された変換データは、メモリ32に記憶される(変換データ32c)。
画像処理部33aは、辞書データ32dを用いて、例えば機械学習の識別機アルゴリズムを適用して変換データ32cを処理し、自センサに割り当てられたエリアにおけるセンシングデータを生成する。生成されたセンシングデータはメモリ32に記憶される(センシングデータ32e)。
なお、画像処理部33aは、画像データ32bを処理することによっても、センシングデータを生成することができる。ただ、変換データ32cは辞書データ32dにマッチするように生成されているので、変換データ32cを用いてセンシングデータを生成することのほうが有利である。
センシングデータとして、実施形態では(通常状態の人物センシングデータ)、(環境情報)、および(異常状態の人物センシングデータ)を例として採り上げる。
(通常状態の人物センシングデータ)としては、在/不在、推定人数、歩行滞留、人物認識、動きベクトルなどがある。
(環境情報)としては、推定照度、活動量、混雑度などがある。
(異常状態の人物センシングデータ)としては、倒れている人、高齢者、車椅子に乗っている人などがある。
画像処理部33aは、これらの項目を変換データ32d(または画像データ32b)からセンシングする。全ての項目を、常時、同時にセンシングしても良いし、必要に応じで選択された項目のみをセンシングしてもよい。時刻、カレンダー、明るさ、外部からの指示などに応じて、センシングすべき項目を選択することもできる。処理の周期も、全ての項目について同じでもよいし、センシング項目ごとに異なる周期で処理してもよい。
統合処理部33dは、(異常状態の人物センシングデータ)を生成する際に、(環境情報)、および(通常状態の人物センシングデータ)のいずれか一方、または双方を参照する。つまり統合処理部33dは、(異常状態の人物センシングデータ)そのものと、(環境情報)、および(通常状態の人物センシングデータ)の少なくともいずれか1つとを統合的に判定した結果に基づいて、(異常状態の人物センシングデータ)を生成し、出力する。
例えば、混雑状態(環境情報)にある環境下で倒れている人(異常状態の人物センシングデータ)が検知されたとしても、それほどの緊急性は無いと言える。これに対して、人が不在の状態で(異常状態の人物センシングデータ)が検知された場合には、緊急性が高く、直ちにシステム関係者への通報を要する。統合処理部33dは、このように、複数の情報を統合的に判定した結果に基づいて、(異常状態の人物センシングデータ)を生成する。
図5は、図4に示される画像処理部33aの基本的な処理手順を示すフローチャートである。図5において、撮像部31で取得(ステップS1)された画像データ32bは、メモリ32に一時的に記憶されたのち(ステップS2)、画像処理部33aに送られる。画像処理部33aは、画像データ32bを画像処理して、通常状態の人物の検知(センシング)(ステップS3)、環境情報の推定(ステップS4)、および異常状態の人物の検知(ステップS5)の各処理を実行して、これらの項目を画像データ32bからセンシングする。
これらのセンシング項目の全てを常時、同時にセンシングしても良い。または、必要に応じて個別にセンシングしてもよい。項目ごとの処理の周期は、例えばフレーム周期に同期して全ての項目で同じであっても良いし、項目ごとに異なっていても良い。通信部34は、これらのセンシングデータや項目の算出に係る各種のパラメータ等を、センサネットワーク9経由でゲートウェイ装置7に通信する(ステップS6)。
図6は、画像センサにおけるデータの流れの一例を示す図である。図6において、撮像部31で取得された画像データ32bはメモリ32に一時的に記憶されたのち、プロセッサ33の画像処理部33aに送られる。画像処理部33aは、メモリ32に記憶された辞書データ32dを用いて画像データ32bを画像処理し、センシングデータを生成する。通信部34は、生成されたセンシングデータを含む各種のデータを、センサネットワーク9経由でゲートウェイ装置7に送信する。
図6の流れを基本として、実施形態では、画像データ32bを辞書データ32cに応じて変換した変換データ32cに基づいて画像処理を行い、センシングデータを生成する技術について説明する。
図7は、実施形態に係るゲートウェイ装置7の一例を示すブロック図である。計算装置の一例としてのゲートウェイ装置7は、CPUやMPU(Micro Processing Unit)等のプロセッサ75と、ROM(Read Only Memory)72およびRAM(Random Access Memory)73を備えるコンピュータである。ゲートウェイ装置7は、さらに、ハードディスクドライブ(Hard Disk Drive:HDD)などの記憶部74、光学メディアドライブ76、および通信部77を備える。
ROM72は、BIOS(Basic Input Output System)やUEFI(Unified Extensible Firmware Interface)などの基本プログラム、および各種の設定データ等を記憶する。RAM73は、記憶部74からロードされたプログラムやデータを一時的に記憶する。
光学メディアドライブ76は、CD-ROM78などの記録媒体に記録されたディジタルデータを読み取る。ゲートウェイ装置7で実行される各種プログラムは、例えばCD-ROM78に記録されて頒布される。このCD-ROM78に格納されたプログラムは光学メディアドライブ76により読み取られ、記憶部74にインストールされる。
通信部77は、ビル内ネットワーク8経由で画像センサ3、BEMSサーバ5等と通信するための機能を備える。ゲートウェイ装置7で実行される各種プログラムを、例えば通信部77を介してサーバからダウンロードし、記憶部74にインストールすることもできる。通信部77を介してクラウド100(図1)から最新のプログラムをダウンロードし、インストール済みのプログラムをアップデートすることもできる。また、ゲートウェイ装置7は、センサネットワーク9を介して画像センサ3に辞書データをダウンロード送信することができる。
プロセッサ75は、OS(Operating System)および各種のプログラムを実行する。また、プロセッサ75は、実施形態に係る処理機能として、取得部75a、作成部75b、および送信部75cを備える。
これらの機能ブロックは、記憶部74に記憶されたプログラム74aがRAM73にロードされ、当該プログラムの実行の過程で生成されるプロセスとして、理解され得る。つまりプログラム74aはコンピュータであるゲートウェイ装置7を、取得部75a、作成部75b、および送信部75cとして動作させる。
取得部75aは、画像センサ3-1~3-nから、それぞれの画像センサで生成された画像データを取得する。取得された画像データは記憶部74に記憶される(画像データ74b)。また、取得部75aは、画像センサ3-1~3-nにおいて画像データから抽出された特徴量を、画像センサ3-1~3-nから取得する。取得された特徴量は記憶部74に記憶される(特徴量74c)。
作成部75bは、画像データ74bに基づいて、画像センサ3-1~3-nで用いられる辞書データを作成する。作成された辞書データは、記憶部74に記憶される(辞書データ74d)。
送信部75cは、作成された辞書データ74dを、宛先の画像センサ3-1~3-nに送信する。送信された辞書データは、それぞれの画像センサ3-1~3-nにおいて記憶され、センシングデータの生成に利用される。
記憶部74は、プロセッサ75により実行されるプログラム74aに加えて、画像データ74b、特徴量74c、および、辞書データ74dを記憶する。
画像データ74bは、画像センサ3-1~3-n、3-1~3-mから取得された画像データである。特徴量74cは、画像データ74bから抽出される、この画像データ74bの特徴を示す情報である。特徴量としては、輝度勾配方向ヒストグラム(Histograms of Oriented Gradients:HOG)、コントラスト、解像度、S/N比、および色調などがある。輝度勾配方向共起ヒストグラム(Co-occurrence HOG:Co-HOG)特徴量、Haar-Like特徴量なども特徴量として知られている。
[作用]
次に、上記構成における作用を説明する。
図8は、画像センサ3で取得された画像データの一例を示す図である。この画像データは、例えば床に倒れている人(枠で囲った部分)を含んでいるとする。この学習画像を、画像処理部33aの識別機への学習データとして用いることについて、以下に詳しく説明する。
画像センサ3の変換部33bは、自ら取得した画像データを、辞書データ32dを用いるのに適した形態に加工する。
図9に示されるように、例えば、画像センサ3で取得された画像データの視野をパノラマ化することにより、画像の向きを揃えることができる。
図10に示されるように、画像センサ3で取得された画像データを回転させることによっても、画像の向きを揃えることができる。
図11に示されるように、画像センサ3で取得された画像データを縮小することによっても、画像処理に適したデータを得ることができる。
図12に示されるように、画像センサ3で取得された画像データを拡大することによっても、画像処理に適したデータを得ることができる。この種の拡大縮小処理は、ピラミッド画像とも称して知られる。
図13に示されるように、画像センサ3の視野の歪みを補正することによっても、画像処理に適したデータを得ることができる。
図14は、特徴量に対して変換処理を施す一例を示す図である。例えば、特徴量の一つであるCoHOGに対して回転処理を施すことは、傾き方向のビンを順次入れ替えることと同様である。
画像データ32bを変換して得られた変換データ32cは、辞書データ32dを生成、更新するための学習用のデータ(学習データ)としても適用することが可能である。
図15に示されるように、画像データ内で向きの異なる学習画像ごとに、それぞれ個別に学習データとして採用することができる。すなわち辞書データは、異なる条件ごとに予め学習により作成されることができる。画像処理部33aは、異なる条件ごとの辞書データ32dを用いて変換データ32c(画像データ32b)を処理して、センシングデータ32eを生成する。
図16に示されるように、画像データ内でサイズの異なる学習画像ごとに、それぞれ個別に学習データとして採用することもできる。
図17に示されるように、人物の姿勢、あるいは向きごとに学習データを作成することもできる。(a)仰向け、(b)うつ伏せ、(c)右向き、(d)左向き、(e)自由な姿勢、といった複数のカテゴリにわたって、複数の姿勢の画像データを学習データとして用いて辞書データを作成することができる。
図18(a)に示されるように、画像データを同心円状の領域に分割し、各領域の画像ごとに学習データを作成することができる。あるいは、図18(b)に示されるように、中心から放射状に分割された領域ごとに、学習データを作成することもできる。また、図19(a)に示されるように、パノラマ画像を距離により複数の領域に分割することもできるし、図19(b)のように、パノラマ画像を角度により複数の領域に分割することもできる。
さらに、画像データ32bを変換部33bにより変換し、取得された画像データよりも多数の変換データを作成することも可能である。
図20に示されるように、一つの学習画像を異なる角度に回転させ(アフィン変換)、いわばデータを水増しすることができる。学習データの量が多いほど、学習により生成される辞書データの信頼度を高め、正確なセンシングを行えるようになる。
図21に示されるように、中央の教示位置の学習画像を少しずつずらすことにより、周辺位置(1)~(8)の学習画像を生成することもできる。なお、ぼかしやノイズ負荷などの画像処理をした画像により、学習データ水増ししてもよい。さらには、実際の画像でなく、CG(Computer Graphics)技術を用いた画像データにより学習画像を水増しすることもできる。
以上のように、画像センサ3の変換部33bは、取得した画像データ32bを辞書データ32dに応じて変換して、変換データ32cを作成する。そして、変換データ32cに基づいて、例えばSVMを用いた識別により、画像処理部33aがセンシングデータ32eを作成する。
[効果]
以上説明したようにこの実施形態では、画像センサ3-1~3-nにおいて、取得された画像データを自らの辞書データ32dに適した形態に変換し、変換データを画像処理してセンシングデータを得るようにした。
このようにしたので、いわば生の(Raw)画像データを正規化し、正規化したデータに基づいて画像処理を行うことができる。すなわち、画像センサ3-1~3-nごとに利用される辞書データに合わせて画像データそのもの、あるいは特徴量を変換(前処理)するようにした。このようにすることで、画像センサの取り付け位置や画角によらず、正規化した画像データを取り扱えるようになり、いかなる環境においても有用な学習データを蓄積することができる。
これらのことから実施形態によれば、画角によらずセンシングデータを正確に検知することの可能な画像センサ、計算装置、および画像センサシステムを提供することができる。ひいては、異常状態にある人物を、画角によらず正確に検知することが可能になる。
なお、この発明は上記実施形態に限定されるものではない。例えば、計算装置としてのゲートウェイ装置7に実装した各種機能を、管理端末20、あるいはBEMSサーバ5に実装してもよい。
あるいは、画像センサ3の機能の一部をゲートウェイ装置7に実装してもよい。例えば、ゲートウェイ装置7に変換部を実装し、画像センサから取得した画像データをこの変換部で変換して変換データを作成する。そして作成部75bにより、この変換データに基づいて各画像センサ3向けの辞書データを作成する。さらに、作成された辞書データを、送信部75dにより画像センサ3に送信するようにしてもよい。
また、各画像センサ3で得られた画像データをゲートウェイ装置7に収集/蓄積し、ゲートウェイ装置7において、学習による辞書データを生成してもよい。あるいは、画像センサ3-1~3-nにおいて抽出した特徴量をゲートウェイ装置7に収集/蓄積し、画像センサ3-1~3-nで用いられる辞書データに適した形態に特徴量を変換し、その上で学習により辞書データを生成してもよい。
実施形態を説明したが、この実施形態は例として提示するものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[1]
エリアを撮像して画像データを取得する撮像部と、
検知対象について予め作成された辞書データを記憶する記憶部と、
前記取得された画像データ、または、当該画像データから抽出された特徴量を前記辞書データに応じて変換して変換データを作成する変換部と、
前記辞書データを用いて前記変換データを処理して、前記エリアにおけるセンシングデータを生成する画像処理部とを具備する、画像センサ。
[2]
前記撮像部は、
前記エリアを見下し画角で視野内に捉える魚眼レンズと、
前記魚眼レンズから結像された像を撮像して前記画像データを生成するイメージセンサとを備える、[1]に記載の画像センサ。
[3]
前記記憶部は、異なる条件ごとに予め作成された複数の辞書データを記憶し、
前記変換部は、前記取得された画像データを前記複数の辞書データごとに応じて変換して変換データを作成し、
前記画像処理部は、前記異なる条件ごとの辞書データを用いて前記変換データを処理して前記センシングデータを生成する、[1]に記載の画像センサ。
[4]
前記変換部は、前記取得された画像データを変換して、当該取得された画像データよりも多数の変換データを作成する、[1]に記載の画像センサ。
[5]
さらに、前記変換データに基づく学習により前記辞書データを作成する作成部を具備する、[1]に記載の画像センサ。
[6]
前記センシングデータは、
前記エリアにおける異常状態の人物のセンシングデータを含む、[1]に記載の画像センサ。
[7]
前記センシングデータは、
さらに、前記エリアにおける通常状態の人物のセンシングデータ、および当該エリアの環境情報の少なくともいずれか1つを含む、[6]に記載の画像センサ。
[8]
前記異常状態の人物のセンシングデータと、前記エリアにおける通常状態の人物のセンシングデータ、および当該エリアの環境情報の少なくともいずれか1つとを統合的に判定した結果に基づいて、当該異常状態の人物のセンシングデータを生成する統合処理部をさらに具備する、[7]に記載の画像センサ。
[9]
エリアを撮像して画像データを取得する画像センサから前記画像データを取得する取得部と、
前記取得された画像データ、または、当該画像データから抽出された特徴量を前記画像センサで用いられる辞書データに応じて変換して、変換データを作成する変換部と、
前記変換データに基づいて、前記画像センサで用いられる辞書データを作成する作成部と、
前記作成された辞書データを前記画像センサに送信する送信部とを備える、計算装置。
[10]
対象をセンシングする複数の画像センサと、
前記画像センサと通信可能な計算装置とを具備し、
前記画像センサは、
エリアを撮像して画像データを取得する撮像部と、
検知対象について予め作成された辞書データを記憶する記憶部と、
前記取得された画像データ、または、当該画像データから抽出された特徴量を前記辞書データに応じて変換して変換データを作成する変換部と、
前記辞書データを用いて前記変換データを処理して、前記エリアにおけるセンシングデータを生成する画像処理部とを備え、
前記計算装置は、
前記画像センサから前記画像データを取得する取得部と、
前記画像データに基づいて、前記画像センサで用いられる辞書データを作成する作成部と、
前記作成された辞書データを前記画像センサに送信する送信部とを備える、画像センサシステム。
[11]
前記撮像部は、
前記エリアを見下し画角で視野内に捉える魚眼レンズと、
前記魚眼レンズから結像された像を撮像して前記画像データを生成するイメージセンサとを備える、[10]に記載の画像センサシステム。
[12]
前記記憶部は、異なる条件ごとに予め作成された複数の辞書データを記憶し、
前記変換部は、前記取得された画像データを前記複数の辞書データごとに応じて変換して変換データを作成し、
前記画像処理部は、前記異なる条件ごとの辞書データを用いて前記変換データを処理して前記センシングデータを生成する、[10]に記載の画像センサシステム。
[13]
前記変換部は、前記取得された画像データを変換して、当該取得された画像データよりも多数の変換データを作成する、[10]に記載の画像センサシステム。
[14]
前記作成部は、前記変換データに基づく学習により、前記画像センサで用いられる辞書データを作成する、[10]に記載の画像センサシステム。
1…照明設備、2…空調機器、3(3-1~3-n)…画像センサ、4…照明コントローラ、5…BEMSサーバ、7…ゲートウェイ装置、8…ビル内ネットワーク、9…センサネットワーク、10…通信ネットワーク、15…プロセッサ、20…管理端末、30…レジスタ、30a…カメラ情報、31…撮像部、31a…魚眼レンズ、31b…絞り機構、31c…イメージセンサ、32…メモリ、32a…プログラム、32b…画像データ、32c…変換データ、32d…辞書データ、32e…センシングデータ、32f…特徴量、33…プロセッサ、33a…画像処理部、33b…変換部、33c…抽出部、33d…統合処理部、34…通信部、35…内部バス、72…ROM、73…RAM、74…記憶部、74a…プログラム、74b…画像データ、74c…特徴量、74d…辞書データ、75…プロセッサ、75a…取得部、75b…作成部、75c…送信部、76…光学メディアドライブ、77…通信部、100…クラウド、200…サーバ、300…データベース、400…ビル、A1,A2…エリア。

Claims (12)

  1. エリアを撮像して画像データを取得する撮像部と、
    前記取得された画像データのCoHOG特徴量に対して回転処理を施して正規化して変換データを作成する変換部と、
    前記変換データに基づく機械学習により辞書データを作成する作成部と、
    前記辞書データを用いて前記変換データを処理して、前記エリアにおけるセンシングデータを生成する画像処理部とを具備する、画像センサ。
  2. 前記撮像部は、
    前記エリアを見下し画角で視野内に捉える魚眼レンズと、
    前記魚眼レンズから結像された像を撮像して前記画像データを生成するイメージセンサとを備える、請求項1に記載の画像センサ。
  3. 画像データ内で向きが異なるという条件ごとに、または、画像データ内でサイズが異なるという条件ごとに予め作成された複数の辞書データを記憶する記憶部をさらに具備し、 前記変換部は、前記取得された画像データを前記複数の辞書データごとに応じて変換して変換データを作成し、
    前記画像処理部は、前記異なる条件ごとの辞書データを用いて前記変換データを処理して前記センシングデータを生成する、請求項1に記載の画像センサ。
  4. 前記変換部は、前記取得された画像データを変換して、当該取得された画像データよりも多数の変換データを作成する、請求項1に記載の画像センサ。
  5. 前記センシングデータは、
    前記エリアにおける異常状態の人物のセンシングデータを含む、請求項1に記載の画像センサ。
  6. 前記センシングデータは、
    さらに、前記エリアにおける通常状態の人物のセンシングデータ、および当該エリアの環境情報の少なくともいずれか1つを含む、請求項5に記載の画像センサ。
  7. 前記異常状態の人物のセンシングデータと、前記エリアにおける通常状態の人物のセンシングデータ、および当該エリアの環境情報の少なくともいずれか1つとを統合的に判定した結果に基づいて、当該異常状態の人物のセンシングデータを生成する統合処理部をさらに具備する、請求項6に記載の画像センサ。
  8. エリアを撮像して画像データを取得する画像センサから前記画像データを取得する取得部と、
    前記取得された画像データのCoHOG特徴量に対して回転処理を施して正規化して変換データを作成する変換部と、
    前記変換データに基づく機械学習により辞書データを作成する作成部と、
    前記作成された辞書データを前記画像センサに送信する送信部とを備える、計算装置。
  9. 対象をセンシングする複数の画像センサと、
    前記画像センサと通信可能な計算装置とを具備し、
    前記画像センサは、
    エリアを撮像して画像データを取得する撮像部と、
    前記取得された画像データのCoHOG特徴量に対して回転処理を施して正規化して変換データを作成する変換部と、
    検知対象について予め作成された辞書データを記憶する記憶部と、
    前記辞書データを用いて前記変換データを処理して、前記エリアにおけるセンシングデータを生成する画像処理部とを備え、
    前記計算装置は、
    前記画像センサから前記変換データを取得する取得部と、
    前記変換データに基づく機械学習により辞書データを作成する作成部と、
    前記作成された辞書データを前記画像センサに送信する送信部とを備える、画像センサシステム。
  10. 前記撮像部は、
    前記エリアを見下し画角で視野内に捉える魚眼レンズと、
    前記魚眼レンズから結像された像を撮像して前記画像データを生成するイメージセンサとを備える、請求項9に記載の画像センサシステム。
  11. 前記記憶部は、画像データ内で向きが異なるという条件ごとに、または、画像データ内でサイズが異なるという条件ごとに予め作成された複数の辞書データを記憶し、
    前記変換部は、前記取得された画像データを前記複数の辞書データごとに応じて変換して変換データを作成し、
    前記画像処理部は、前記異なる条件ごとの辞書データを用いて前記変換データを処理して前記センシングデータを生成する、請求項9に記載の画像センサシステム。
  12. 前記変換部は、前記取得された画像データを変換して、当該取得された画像データよりも多数の変換データを作成する、請求項9に記載の画像センサシステム。
JP2020024263A 2020-02-17 2020-02-17 画像センサ、計算装置、および画像センサシステム Active JP7419095B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020024263A JP7419095B2 (ja) 2020-02-17 2020-02-17 画像センサ、計算装置、および画像センサシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020024263A JP7419095B2 (ja) 2020-02-17 2020-02-17 画像センサ、計算装置、および画像センサシステム

Publications (2)

Publication Number Publication Date
JP2021128678A JP2021128678A (ja) 2021-09-02
JP7419095B2 true JP7419095B2 (ja) 2024-01-22

Family

ID=77488759

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020024263A Active JP7419095B2 (ja) 2020-02-17 2020-02-17 画像センサ、計算装置、および画像センサシステム

Country Status (1)

Country Link
JP (1) JP7419095B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023135726A1 (ja) * 2022-01-14 2023-07-20 日本電気株式会社 情報処理装置、情報処理方法、及びコンピュータ可読媒体

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000322574A (ja) 1999-05-10 2000-11-24 Omron Corp 画像認識装置
JP2008142876A (ja) 2006-12-13 2008-06-26 Mitsubishi Heavy Ind Ltd ロボットによるサービスシステムにおけるサービス対象者判別方法と該方法を用いたロボットによるサービスシステム
JP2008165496A (ja) 2006-12-28 2008-07-17 Toyota Central R&D Labs Inc 画像正規化装置、対象物検出装置、対象物検出システム及びプログラム
JP2012083938A (ja) 2010-10-12 2012-04-26 Sony Corp 学習装置、学習方法、識別装置、識別方法、およびプログラム
JP2015184908A (ja) 2014-03-24 2015-10-22 東芝アルパイン・オートモティブテクノロジー株式会社 画像処理装置および画像処理プログラム
JP2018182624A (ja) 2017-04-18 2018-11-15 キヤノン株式会社 画像処理装置、制御方法、およびプログラム
JP2019087787A (ja) 2017-11-01 2019-06-06 株式会社東芝 画像センサ、センシング方法、制御システム及びプログラム
JP2019121045A (ja) 2017-12-28 2019-07-22 コニカミノルタ株式会社 姿勢推定システム、行動推定システム、および姿勢推定プログラム
JP2020010204A (ja) 2018-07-09 2020-01-16 株式会社東芝 センシングシステム、保守端末装置、データ配布方法、および画像センサ

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3665430B2 (ja) * 1996-09-12 2005-06-29 東京電力株式会社 画像特徴量判定装置及び画像特徴量判定方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000322574A (ja) 1999-05-10 2000-11-24 Omron Corp 画像認識装置
JP2008142876A (ja) 2006-12-13 2008-06-26 Mitsubishi Heavy Ind Ltd ロボットによるサービスシステムにおけるサービス対象者判別方法と該方法を用いたロボットによるサービスシステム
JP2008165496A (ja) 2006-12-28 2008-07-17 Toyota Central R&D Labs Inc 画像正規化装置、対象物検出装置、対象物検出システム及びプログラム
JP2012083938A (ja) 2010-10-12 2012-04-26 Sony Corp 学習装置、学習方法、識別装置、識別方法、およびプログラム
JP2015184908A (ja) 2014-03-24 2015-10-22 東芝アルパイン・オートモティブテクノロジー株式会社 画像処理装置および画像処理プログラム
JP2018182624A (ja) 2017-04-18 2018-11-15 キヤノン株式会社 画像処理装置、制御方法、およびプログラム
JP2019087787A (ja) 2017-11-01 2019-06-06 株式会社東芝 画像センサ、センシング方法、制御システム及びプログラム
JP2019121045A (ja) 2017-12-28 2019-07-22 コニカミノルタ株式会社 姿勢推定システム、行動推定システム、および姿勢推定プログラム
JP2020010204A (ja) 2018-07-09 2020-01-16 株式会社東芝 センシングシステム、保守端末装置、データ配布方法、および画像センサ

Also Published As

Publication number Publication date
JP2021128678A (ja) 2021-09-02

Similar Documents

Publication Publication Date Title
JP7463582B2 (ja) センシングシステム、保守端末装置、データ配布方法、および画像センサ
US9295141B2 (en) Identification device, method and computer program product
JP7419095B2 (ja) 画像センサ、計算装置、および画像センサシステム
WO2019087742A1 (ja) 画像センサ、センシング方法、制御システム及びプログラム
US20170276549A1 (en) System and method for monitoring abnormal behavior
JP2015103104A (ja) 情報処理装置、情報処理方法、情報処理システム
JP2006059015A (ja) 人体検出装置及び人体検出方法、並びにコンピュータ・プログラム
US11256910B2 (en) Method and system for locating an occupant
JP7002912B2 (ja) 画像センサ、人物検知方法、プログラムおよび制御システム
JP7237713B2 (ja) センサシステム、画像センサ、およびセンシング方法
JP2022117761A (ja) センサシステム、画像センサ、サーバ装置、センシング方法、およびプログラム
JP7286747B2 (ja) 画像センサ、動体検知方法、プログラムおよび制御システム
US20210289119A1 (en) Information processing apparatus, imaging apparatus, method, and storage medium
JP7254570B2 (ja) 画像センサシステム、計算装置、センシング方法、およびプログラム
JP2022020297A (ja) 画像センサ、センシング方法、およびプログラム
JP7353964B2 (ja) 誘導システム、サーバ、プログラムおよびサービス提供方法
JP6991922B2 (ja) 画像センサ、識別方法、制御システムおよびプログラム
JP2019143861A (ja) 換気制御システム、換気制御装置、換気制御方法、およびプログラム
JP2019129505A (ja) 画像センサ、センシングシステム、センシング方法およびプログラム
JP6524201B2 (ja) ビル設備制御システム及び画像センサ装置
JP2020048055A (ja) 画像センサ、センシング方法、制御システム及びプログラム
JP7145693B2 (ja) 座席状態センシングシステム、座席状態判定方法、および画像センサ
JP7465644B2 (ja) 監視システム、及び監視方法
US20180268554A1 (en) Method and system for locating an occupant
JP2022141274A (ja) 画像センサ、センシング方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220720

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240110

R150 Certificate of patent or registration of utility model

Ref document number: 7419095

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150