JP2019185724A - 情報管理システム - Google Patents

情報管理システム Download PDF

Info

Publication number
JP2019185724A
JP2019185724A JP2018200345A JP2018200345A JP2019185724A JP 2019185724 A JP2019185724 A JP 2019185724A JP 2018200345 A JP2018200345 A JP 2018200345A JP 2018200345 A JP2018200345 A JP 2018200345A JP 2019185724 A JP2019185724 A JP 2019185724A
Authority
JP
Japan
Prior art keywords
person
data
unit
information
management system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018200345A
Other languages
English (en)
Inventor
慧太 北川
Keita KITAGAWA
慧太 北川
陽一 半田
Yoichi Handa
陽一 半田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daikin Industries Ltd
Original Assignee
Daikin Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daikin Industries Ltd filed Critical Daikin Industries Ltd
Priority to EP19775702.4A priority Critical patent/EP3779870A4/en
Priority to US17/043,405 priority patent/US20210142051A1/en
Priority to CN201980023874.XA priority patent/CN112005246A/zh
Priority to PCT/JP2019/012850 priority patent/WO2019189179A1/ja
Publication of JP2019185724A publication Critical patent/JP2019185724A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • G06Q50/265Personal security, identity or safety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/109Time management, e.g. calendars, reminders, meetings or time accounting
    • G06Q10/1091Recording time for administrative or management purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C1/00Registering, indicating or recording the time of events or elapsed time, e.g. time-recorders for work people
    • G07C1/10Registering, indicating or recording the time of events or elapsed time, e.g. time-recorders for work people together with the recording, indicating or registering of other data, e.g. of signs of identity
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/20Individual registration on entry or exit involving the use of a pass
    • G07C9/28Individual registration on entry or exit involving the use of a pass the pass enabling tracking or indicating presence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Multimedia (AREA)
  • Educational Administration (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Primary Health Care (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Technology (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Computer Security & Cryptography (AREA)
  • Social Psychology (AREA)
  • Data Mining & Analysis (AREA)
  • Development Economics (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Alarm Systems (AREA)
  • Telephonic Communication Services (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】対象空間に存在する人を管理可能なシステムを提供する。【解決手段】管理システム100は、撮影ユニット40と、データ生成部63、記憶部61及び管理部64を備える管理装置を有する。データ生成部63は、撮影データ(撮影ユニット40が撮影した画像)に含まれる人物の特徴に基づいて、対象空間内の人物を抽出する。データ生成部63は、抽出データを生成する。抽出データは、抽出した人物に関連付けられたデータである。記憶部61は、データ生成部63が生成した抽出データを記憶する。管理部64は、抽出データに基づき、対象空間に存在する人物の情報を管理する。【選択図】図1

Description

本開示は、情報管理システムに関する。
従来、例えば特許文献1(特開2017−45373号公報)に開示されるように、対象空間(例えば会社内や学校内等)において、複数の撮影機器の画像を用いて人の所在を管理するシステムが知られている。特許文献1では、人が装着する帽子に貼付されたコードを撮影機器の画像から取得することで人物を識別している。
特許文献1では、コードを貼付された帽子を装着していない人に関しては抽出することができない。このため、対象空間に存在する特定の人以外の情報を管理できない。
対象空間に存在する人の情報を管理可能なシステムを提供する。
第1観点の情報管理システムは、撮影機器と、データ生成部と、記憶部と、管理部と、を備える。撮影機器は、対象空間に設置される。データ生成部は、撮影機器が撮影した画像に含まれる人の特徴に基づいて、対象空間内の人を抽出する。データ生成部は、人物データを生成する。人物データは、抽出した人に関連付けられたデータである。記憶部は、データ生成部が生成した人物データを記憶する。管理部は、人物データに基づき、対象空間に存在する人の情報を管理する。
これにより、対象空間に設置される撮影機器の撮影画像に含まれる人の特徴が識別され、抽出・特定された人に関連して生成された人物データに基づき、対象空間に存在する人の情報が管理される。その結果、対象空間において人の情報(例えば所在情報や所在履歴等の情報)を管理することが容易に可能となる。すなわち、対象空間に存在する人を管理可能となる。
なお、ここでの「画像」については、静止画像及び/又は動画が含まれる。
また、ここでの「記憶部」には、人物データを一時的に記憶する主記憶部、及び/又は物品データを蓄積する大容量の補助記憶部が含まれる。
また、ここでの「抽出」は、画像に含まれる人に関して、人と物の識別、個人の特定、又は動作内容の判別を含む。
第2観点の情報管理システムは、第1観点の情報管理システムであって、データ生成部は、撮影機器が撮影した画像に含まれている人に関して所在位置を抽出する。人物データは、人の所在位置に関する情報を含む。
第3観点の情報管理システムは、第1観点又は第2観点の情報管理システムであって、データ生成部は、撮影機器が撮影した画像に含まれている人に関して、所在時刻を抽出する。人物データは、抽出した人に関して所在時刻に関する情報を含む。人の所在時刻を把握することで、特定の人の所在履歴を把握することが可能となる。
第4観点の情報管理システムは、第1観点から第3観点のいずれかの情報管理システムであって、データ生成部は、撮影機器が撮影した画像に含まれている人に関して、行動内容を抽出する。人物データは、抽出した人に関して行動内容に関する情報を含む。これにより、抽出した人の具体的な行動内容を把握することが可能となる。
第5観点の情報管理システムは、第1観点又は第2観点の情報管理システムであって、データ生成部は、撮影機器が撮影した画像に含まれている人に関して、所在時刻及び行動内容を抽出する。人物データは、抽出した人に関して所在時刻及び行動内容に関する情報を含む。これにより、抽出した人の所在時刻及び具体的な行動内容の双方を把握することが可能となる。
なお、第4観点又は第5観点の情報管理システムにおいて、「行動内容」には、対象空間における人の在・不在のみならず、対象空間における人の具体的な行為や作業内容についても含む。例えば、「行動内容」には、「読書」、「筆記作業」、「PCを用いた作業」、「PCにおいて最もアクティブな状態のアプリケーション(すなわち主に使用中のアプリケーション)」、「電話機を用いた通話」、「会話」、「会話の相手」、「会議」、「食事」、「水分摂取」、「摂取された飲食物の内容(品目、摂取量又は残存量等)」、「印刷機を用いた作業」、「清掃作業」「製造ラインにおける作業」、「歩行」、又は「体操」等、人の行動の詳細が含まれる。
第6観点の情報管理システムは、第4観点又は第5観点の情報管理システムであって、データ生成部は、撮影機器が撮影した画像に含まれている人に関して、会話の相手を行動内容として抽出する。これにより、特定の人に関して会話の相手を把握することが可能となる。
第7観点の情報管理システムは、第4観点から第6観点のいずれかの情報管理システムであって、人物データは、抽出した人に関して行動内容の履歴に関する情報を含む。これにより、特定の人の行動内容の履歴を把握することが可能となる。
第8観点の情報管理システムは、第1観点から第7観点のいずれかの情報管理システムであって、データ生成部は、情報処理機器を用いて作業を行っている人に関して情報処理機器における作業内容を抽出する。人物データは、撮影機器が撮影した画像に含まれている人に関して、情報処理機器における作業内容に関する情報を含む。これにより、特定の人の情報処理機器における作業内容を把握することが可能となる。
第9観点の情報管理システムは、第1観点から第8観点のいずれかの情報管理システムであって、人物データを出力する出力部をさらに備える。
第10観点の情報管理システムは、第1観点から第9観点のいずれかの情報管理システムであって、データ生成部は、対象空間内の人の動作に基づき、人を抽出する。これにより人の抽出及び個人の特定を高精度に行うことが可能となる。
歩いている動作、作業している動作、デスクワーク、飲食など、人特有の動作を認識した際にその動作を行っている対象を人と認識してもよい。
第11観点の情報管理システムは、第1観点から第10観点のいずれかの情報管理システムであって、データ生成部は、画像から各要素間の距離を推定する。データ生成部は、推定した距離に基づき、人を抽出する。これにより、人の抽出及び個人の特定を高精度に行うことが可能となる。
第12観点の情報管理システムは、第1観点から第11観点のいずれかの情報管理システムであって、データ生成部は、学習部を含む。学習部は、撮影機器が撮影した画像に基づき、人の特徴を学習する。これにより、人の抽出及び個人の特定を高精度に行うことが可能となる。
第13観点の情報管理システムは、第1観点から第12観点のいずれかの情報管理システムであって、管理部は、記憶部に記憶されている人物データに基づき、対象空間に存在する人に関して、人物履歴データを個別に生成する。人物履歴データは、人の所在履歴又は行動履歴に関するデータである。これにより、各人の所在履歴又は行動履歴が自動生成される。
第14観点の情報管理システムは、第1観点から第13観点のいずれかの情報管理システムであって、撮影機器を複数備える。データ生成部は、複数の撮影機器が撮影した画像に基づき、人の特徴を識別する。複数の撮影機器を備えることにより、広範囲において人を抽出することが出来る。
第15観点の情報管理システムは、第1観点から第14観点のいずれかの情報管理システムであって、撮影機器は、空気調和機に配置される。空気調和機は、対象空間に設置される。空気調和機に撮影機器が配置されることにより、対象空間内で広範囲において人を抽出することが出来る。
なお、ここでの「空気調和機」は、例えば、天井に設置される天井埋込型や天井吊下型の室内ユニットや、天井付近の側壁に設置される壁掛型の室内ユニット等である。
管理システムの概略構成図。 対象施設における各機器の設置態様の一例を示した模式図。 対象空間の一例を示した模式図。 対象空間における室内ユニット、リモコン及び撮影ユニットの設置態様の一例を示した模式図。 管理装置の構成態様を概略的に表わした模式図。 記憶部に含まれる記憶領域を概略的に表わした模式図。 撮影ユニット情報テーブル(撮影ユニット情報)の模式図。 人物情報テーブル(人物情報)の模式図。 抽出データの模式図。 人物履歴データの模式図。 抽出部による抽出処理の一例を概略的に示した模式図。 表示データの模式図。 管理装置の処理の流れの一例を示したフローチャート。 変形例1に係る抽出データの模式図。 変形例1に係る人物履歴データの模式図。 変形例1に係る表示データの模式図。 変形例1に係る表示データの表示態様の一例を示した模式図。
[第1実施形態]
以下、本開示の一実施形態に係る管理システム100(情報管理システム)について説明する。なお、以下の実施形態は、具体例であって、技術的範囲を限定するものではなく、趣旨を逸脱しない範囲で適宜変更可能である。
(1)管理システム100
図1は、管理システム100の概略構成図である。図2は、対象施設1における各機器の設置態様の一例を示した模式図である。管理システム100は、特定の空間(対象空間SP)において存在する人物PSに関して個別にデータ(後述の人物履歴データD3)を生成し、生成したデータに基づいて各人物PSの情報管理(例えば在室管理、所在管理、及び所在検索等)を行うためのシステムである。管理システム100は、例えば労働者の勤怠管理や行動管理、学校における生徒の出欠管理や行動管理、また施設におけるセキュリティ管理等に適用される。
本実施形態において、管理システム100は、対象施設1に適用されている。対象施設1は、対象空間SPを含む。本実施形態において、対象施設1は、複数の対象空間SP(SP1、SP2、SP3、SP4、SP5、SP6・・・)を含んでいる。対象空間SPは、例えば図3に示されるように人物PSが活動する空間であり、例えばオフィスとして使用される空間である。ただし、これに限定されるものではなく、対象空間SPは、例えばデパート等の商業施設、学校、工場、病院又は住居等として用いられてもよい。ここでの人物PSは、対象施設1で勤務・学習・生活する人や、対象施設1を訪問した来訪者等である。
管理システム100は、主として、空気調和装置10と、複数の撮影ユニット40と、管理装置60と、を有している。
(1−1)空気調和装置10
空気調和装置10は、対象空間SPにおいて冷房や暖房等の空気調和を実現する装置である。空気調和装置10は、冷媒回路において蒸気圧縮方式の冷凍サイクルを行うことにより、対象空間SPの冷房又は暖房を行う。
空気調和装置10は、主として、熱源ユニットとしての室外ユニット15と、利用ユニットとしての複数台(ここでは6台以上)の室内ユニット20(20a、20b、20c、20d、20e、20f、・・・)と、複数(ここでは室内ユニット20と同数)のリモコン30(30a、30b、30c、30d、30e、30f、・・・)と、を備えている。
本実施形態において、室内ユニット20aは対象空間SP1に設置され、室内ユニット20bは対象空間SP2に設置され、室内ユニット20cは対象空間SP3に設置され、室内ユニット20dは対象空間SP4に設置され、室内ユニット20eは対象空間SP5に設置され、室内ユニット20fは対象空間SP6に設置されている。空気調和装置10では、室外ユニット15と各室内ユニット20とがガス連絡配管GP及び液連絡配管LPで接続されることで冷媒回路が構成されている。
(1−1−1)室外ユニット15
室外ユニット15は、対象空間SPの外部に設置される。室外ユニット15は、主として、冷媒回路を構成する要素として、複数の冷媒配管、圧縮機、室外熱交換器、膨張弁等を有している(図示省略)。また、温度センサ及び圧力センサ等の各種センサや、送風機等の機器を有している。
また、室外ユニット15は、室外ユニット15内の各種アクチュエータの動作を制御する室外ユニット制御部18を有している。室外ユニット制御部18は、RAMやROM等のメモリやCPUを含むマイクロコンピュータ、通信モジュール、各種電子部品及び電気部品を有する。室外ユニット制御部18は、各種アクチュエータや各種センサと、配線を介して電気的に接続されている。
室外ユニット制御部18は、各室内ユニット20の室内ユニット制御部25(後述)と、通信線cb1を介して接続されており、互いに信号の送受信を行う。また、室外ユニット制御部18は、インターネット等のWAN(Wide Area Network)を含む広域ネットワークNW1に通信線cb2を介して接続されており、広域ネットワークNW1に接続される機器(例えばサーバ50)と互いに信号の送受信を行う。
(1−1−2)室内ユニット20
室内ユニット20は、対象空間SPの天井CIに設置される天井埋込型、又は天井CI付近に設置される天井吊下型の空調室内機である。図4は、対象空間SPにおける室内ユニット20、リモコン30及び撮影ユニット40の設置態様の一例を示した模式図である。図4では、対象空間SPにおいて、各室内ユニット20はその本体部分の一部(吸気口及び排気口)が天井CIから露出するように設置されている。室内ユニット20は、冷媒回路を構成する要素として室内熱交換器や室内膨張弁等を有している。また、室内ユニット20は、対象空間SP内の温度や、冷媒の温度を検出する温度センサや圧力センサ等の各種センサを有している。
また、室内ユニット20は、室内ユニット20内の各種アクチュエータ(送風機や膨張弁等)の動作を制御する室内ユニット制御部25を有している。室内ユニット制御部25は、RAMやROM等のメモリやCPUを含むマイクロコンピュータ、通信モジュール、各種電子部品及び電気部品を有する。室内ユニット制御部25は、各種アクチュエータ及び各種センサと、配線を介して電気的に接続されており、互いに信号の送受信を行う。室内ユニット制御部25は、室外ユニット制御部18又は他の室内ユニット制御部25と、通信線cb1を介して接続されており、互いに信号の送受信を行う。また、室内ユニット制御部25は、通信線cb3を介して、対応するリモコン30のリモコン制御部35(後述)と接続されており、互いに信号の送受信を行う。また、室内ユニット制御部25は、通信線cb4を介して、対応する撮影ユニット40と接続されており、互いに信号の送受信を行う。
(1−1−3)リモコン30
リモコン30は、いずれかの室内ユニット20と対応付けられており、対応する室内ユニット20と同一の対象空間SPの側壁SWに設置されている。具体的に、リモコン30aは、室内ユニット20aと対応付けられている。また、リモコン30bは室内ユニット20bと対応付けられ、リモコン30cは室内ユニット20cと対応付けられ、リモコン30dは室内ユニット20dと対応付けられ、リモコン30eは室内ユニット20eと対応付けられ、リモコン30fは室内ユニット20fと対応付けられている。 各リモコン30は、いわゆる有線式のリモートコントロール装置であって、通信線cb3を介して、対応する室内ユニット20(室内ユニット制御部25)と接続されている。
各リモコン30は、各種設定に係るコマンドを、空気調和装置10に入力するための入力装置として機能する。また、リモコン30は、空気調和装置10の運転状態や設定項目を表示する表示装置としても機能する。
各リモコン30は、リモコン30の動作を制御するリモコン制御部35を有している。
(1−2)撮影ユニット40(撮影機器)
管理システム100は、複数(ここでは6以上)の撮影ユニット40(40a、40b、40c、40d、40e、40f・・・)を有している。撮影ユニット40は、対応する対象空間SP内を撮影し、撮影結果を含むデータ(撮影データD1)を生成し出力するユニットである。撮影ユニット40は、対応する対象空間SPに配置される。本実施形態において、撮影ユニット40は、対応する対象空間SPの天井CI(又は天井付近)に設置される室内ユニット20に配置されている。撮影ユニット40は、天井CI又は天井付近(床面よりも天井CIに近い部分)に設置されているので、対象空間SPの広い範囲を撮影することが可能となっている。よって、対象空間SPにおいて人物PSの所在を高精度に検出することが可能となっている。
本実施形態において、撮影ユニット40aは対象空間SP1(室内ユニット20a)に配置され、撮影ユニット40bは対象空間SP2(室内ユニット20b)に配置され、撮影ユニット40cは対象空間SP3(室内ユニット20c)に配置され、撮影ユニット40dは対象空間SP4(室内ユニット20d)に配置され、撮影ユニット40eは対象空間SP5(室内ユニット20e)に配置され、撮影ユニット40fは対象空間SP6(室内ユニット20f)に配置されている。
撮影ユニット40は、撮影部41と、撮影データ生成部42と、撮影データ出力部43と、を有している。撮影部41は、対応する対象空間SPの所定範囲を撮影するためのレンズ(特に限定されないが例えば魚眼レンズや固定焦点レンズ等)及び撮像素子を含む。撮影データ生成部42は、撮影部41の撮像素子によって出力された電気信号をA/D変換し、所定のフォーマットに沿った撮影データD1を生成する。撮影データD1は、対象空間SPの所定範囲を所定のピクセルで表わした画像データ(動画データ)を含む。撮影データ出力部43は、生成された撮影データD1を圧縮して管理装置60(直接的には室内ユニット制御部25)に出力する。
(1−3)管理装置60
管理装置60は、管理システム100の動作を統括的に管理するコンピュータである。本実施形態において、管理装置60は、図5に示されるように、室外ユニット制御部18、室内ユニット制御部25、リモコン制御部35及びサーバ50が通信ネットワークを介して接続されることで構成される。
サーバ50は、管理システム100において、室外ユニット制御部18、室内ユニット制御部25及びリモコン制御部35とともに管理装置60を構成するコンピュータである。サーバ50は、対象空間SPから離れた遠隔地に配置されている。サーバ50は、通信線によって広域ネットワークNW1に接続されており、広域ネットワークNW1を介して室外ユニット制御部18、室内ユニット制御部25及びリモコン制御部35と通信可能に構成されている。
管理装置60は、撮影ユニット40及び端末90と、互いにデータの送受信を行う。管理装置60は、撮影データD1に基づいて処理を行う。より具体的に、管理装置60は、撮影データD1に含まれる人物PSを個別に抽出して、当該人物PSに対応するデータ(人物履歴データD3)を生成して蓄積する。ここでの「抽出」は、撮影データD1に含まれる人物PSに関して、人と物の識別、個人の特定、又は動作内容の判別を含む。人物履歴データD3は、抽出された一の人物PSの対象施設1における所在履歴のデータである。人物履歴データD3の詳細については後述する。
また、管理装置60は、ユーザによって入力されたコマンドに応じて処理を行い、処理結果を出力する。例えば、管理装置60は、特定の人物PSの所在履歴を出力することを要求するコマンド(出力要求コマンド)を入力された場合には、当該コマンドにおいて指定された人物PSに関して、人物履歴データD3に基づき、所在に関する情報のデータ(後述の表示データD4)を生成して出力する。
(1−4)端末90
ここで、管理装置60がデータの送受信を行う端末90について説明する。端末90は、管理者や利用者が保持する情報端末である。端末90は、スマートフォンやタブレットPC等の携帯端末や、ラップトップパソコン等のパーソナルコンピュータが想定されるが、他の情報処理機器であってもよい。
端末90は、通信モジュールを有しており、広域ネットワークNW1を介して、他のユニット(室外ユニット制御部18、室内ユニット制御部25、リモコン制御部35、サーバ50)と通信可能に構成されている。端末90は、無線通信及び有線通信のいずれか又は双方によって広域ネットワークNW1に接続される。
端末90は、コマンドを入力するための入力部を有している。管理システム100においては、端末90を、コマンドを入力するための「コマンド入力部」として機能させることが可能である。ユーザは、端末90を用いてコマンドを入力することで、撮影ユニット40や管理装置60の動作を適宜制御可能である。
また、端末90は、情報を表示(出力)する表示部を有している。管理システム100においては、端末90を、情報を表示する「出力部」として機能させることが可能である。ユーザは、端末90によって、管理システム100の動作状況や処理結果を把握可能である。
端末90は、所定のアプリケーションプログラムをインストールすることで、管理装置60に対してコマンドを入力し、管理装置60の応答結果を表示することが可能となる。
(2)管理装置60の詳細
図1に示されるように、管理装置60は、主として、記憶部61、取得部62、データ生成部63、管理部64、受付部65、情報検索部66及び出力制御部67等の機能部を含んでいる。各機能部は、管理装置60の構成機器(ここでは、室外ユニット制御部18、各室内ユニット制御部25、各リモコン制御部35及びサーバ50)のいずれか又は全てが動作することによって実現される。管理装置60は、独自に或いは他の装置から時刻をリアルタイムに取得可能に構成される。
(2−1)記憶部61
記憶部61は、管理装置60の構成機器のいずれか又は全てに含まれるROM、RAM、フラッシュメモリ、及びハードディスク等のメモリによって構成される。記憶部61は、複数の記憶領域を含み、情報を一時的に記憶する揮発性の記憶領域や、各種情報を蓄積する不揮発性の記憶領域を有している。具体的に、記憶部61には、図6に示されるように、プログラム情報記憶領域M1、環境情報記憶領域M2、システム情報記憶領域M3、人物情報記憶領域M4、撮影データ記憶領域M5、抽出データ記憶領域M6、人物履歴データ記憶領域M7、入力情報記憶領域M8、出力情報記憶領域M9及び特徴データ記憶領域M10等の記憶領域が含まれている。各記憶領域に記憶されている各種情報は、適宜更新が可能である。
プログラム情報記憶領域M1には、管理装置60の各部において実行される各種処理を定義した制御プログラムや、各ユニット間における通信に使用される通信プロトコル等が記憶されている。
環境情報記憶領域M2には、対象施設1に関する情報(環境情報)が記憶されている。環境情報には、例えば対象施設1に含まれる各対象空間SPの数、位置、大きさ等に関する情報が含まれる。
システム情報記憶領域M3には、管理システム100に含まれる各機器に関する情報が記憶されている。例えば、システム情報記憶領域M3には、対象施設1に配置される撮影ユニット40に関する情報(撮影ユニット情報)が記憶されている。撮影ユニット情報には、対象施設1に配置される撮影ユニット40のID、通信アドレス、配置位置及び配置態様等に関する情報が含まれる。撮影ユニット情報は、例えば図7に示されるような撮影ユニット情報テーブルTB1として記憶される。図7の撮影ユニット情報テーブルTB1では、IDが「0120」の撮影ユニット40の通信アドレスが「172.16.**.01」であり、配置位置が「(対象空間)SP1」であり、配置態様として「室内ユニット20aに内蔵」されること等が特定されている。
人物情報記憶領域M4には、対象施設1において予め登録されている人物PS及び過去に検出された人物PSに関する情報(人物情報)が記憶されている。人物情報には、各人物PSのID(任意又は自動的に付与されるID)、氏名、及び所属グループ等に関する情報が含まれる。人物情報は、例えば図8に示されるような人物情報テーブルTB2として記憶される。図8の人物情報テーブルTB2では、例えばIDが「01139」の人物PSに関して、氏名が「田中○○」であり、所属グループが「G3」であり、最新(直近)の所在位置が「(対象空間)SP2」であり、最新の所在時刻が「2018/03/05/17:55」であること等が特定されている。
撮影データ記憶領域M5には、各撮影ユニット40から出力された撮影データD1が記憶されている。撮影データ記憶領域M5においては、撮影ユニット40毎に撮影データD1が蓄積される。
抽出データ記憶領域M6には、撮影ユニット40から出力された撮影データD1から抽出された人物PSに関連付けられたデータ(抽出データD2)が記憶されている。抽出データD2(特許請求の範囲記載の「人物データ」に相当)は、撮影データD1の送信元である撮影ユニット40毎に生成される。より詳細には、抽出データD2は、受信した撮影データD1毎に生成される。抽出データD2は、抽出した人物PSの所在位置に関する情報、及び抽出した人物PSに関して所在時刻に関する情報を含んでいる。抽出データD2は、例えば図9に示されるように、送信元撮影ユニット40のIDとその撮影場所、撮影データD1の受信日時、及び受信した撮影データD1において抽出された人物PSのID等に関する情報である。図9では、例えば、IDが「0121」の撮影ユニット40から送信され撮影された場所が「(対象空間)SP2」であり撮影された日時が「2018/03/06/17:55」である撮影データD1に関して、抽出された人物PSのIDが「01139」、「01564」、「00998」、「01321」であること等が特定されている。
人物履歴データ記憶領域M7には、対象施設1における人物PSに関する所在履歴のデータ(人物履歴データD3)が個別に記憶されている。人物履歴データD3は、人物PSの対象施設1における所在履歴の情報である。人物履歴データD3は、人物PS毎に生成される。人物履歴データD3は、例えば図10に示されるように、人物PSのID、撮影した撮影ユニット40のID、所在場所(撮影された場所)及び所在日時(撮影された日時)等を含む情報である。図10に示される人物履歴データD3では、例えば、IDが「01139」の人物PSに関する5分毎の所在履歴が特定されている。なお、人物履歴データD3において特定される所在履歴は、必ずしも5分毎である必要はなく、所在履歴に係る日時については適宜変更が可能である。
入力情報記憶領域M8には、管理装置60に入力された情報が記憶されている。例えば、入力情報記憶領域M8には、端末90を介して入力されたコマンドが記憶されている。
出力情報記憶領域M9には、管理装置60から他の装置へ出力される情報が記憶されている。例えば、出力情報記憶領域M9には、端末90に表示させる表示データD4(図12)が記憶されている。
特徴データ記憶領域M10は、人物PSの一般的な特徴、並びに対象空間SPで抽出された人物PSの固有の特徴が個別に特定された特徴データD5が記憶されている。特徴データD5は、人物PS毎に作成される。ここでの「特徴」は、人物PSを一意に特定するのに利用される情報である。「特徴」は、様々であり、例えば人物PSの部位(例えば頭、つむじ、顔、肩、腕、脚等)の形状、寸法、色、又は動作(動作速度、動作範囲、動作角度)等である。
(2−2)取得部62
取得部62は、各撮影ユニット40から出力される撮影データD1を取得して撮影データ記憶領域M5に適宜格納する。
(2−3)データ生成部63
データ生成部63は、撮影データ記憶領域M5に記憶されている撮影データD1に含まれる人物PSを抽出して抽出データD2を生成する。データ生成部63は、抽出部631と、抽出データ生成部633と、を有している。
抽出部631は、撮影データ記憶領域M5に記憶されている撮影データD1を取得して、取得した撮影データD1に含まれている人物PSを個別に抽出する処理(抽出処理)を行う。抽出部631は、毎時、抽出処理を行う。抽出処理は、撮影データD1毎に(すなわち撮影データD1の送信元の撮影ユニット40毎に)行われる。
抽出部631は、学習部632を有しており、機械学習を行えるように構成されている。ここでの学習部632は、「ニューラルネットワーク」や「ディープラーニング」等の手段を用いて機械学習を行う。係る学習はいわゆる教師あり学習及び教師なし学習のいずれであってもよい。
抽出部631による抽出処理は、所定の手段(公知技術を含む)を用いて行われる。例えば、抽出部631は、人物PSが持つ特徴を予め定義される特徴データD5に基づいて人物PSを抽出する(検出して特定する)。例えば、抽出部631は、撮影データD1において、人物PSが持つ特徴を識別することで人物PSを検出し、識別される特徴と特徴データD5に定義される特徴とを比較することで人物PSを一意に特定する。
抽出部631による抽出処理の一例を、図11に示す。図11では、抽出部631が、複数のニューラルネットワーク(N1、N2、N3、N4)を用いて、対象空間SPにおける人物PSを抽出する例が示されている。
図11では、まず、撮影データD1が第1ニューラルネットワークN1に入力される。第1ニューラルネットワークN1は、撮影データD1に含まれる各要素間の距離をそれぞれ検出(推定)する処理P1を実行する。
また、第2ニューラルネットワークN2には、撮影データD1とともに処理P1の結果が入力される。第2ニューラルネットワークN2は、処理P1の結果に基づき、撮影データD1に含まれる人物PSの範囲を検出(推定)する処理P2を実行する。人物PSの範囲の検出が可能な場合、人物PSの移動を検出可能であり、後述の処理P3において当該人物PSが有する特徴を取得可能である。
さらに、第3ニューラルネットワークN3には、処理P1の結果とともに処理P2の結果が入力される。第3ニューラルネットワークN3は、処理P1及び処理P2の結果に基づき、撮影データD1に含まれる人物PSの特徴を検出し特定する処理P3を実行する。処理P3では、検出される人物PSの特徴と、特徴データ記憶領域M10に記憶される特徴データD5と、に基づいて人物PSが一意に特定される。例えば、処理P3では、検出される人物PSの各特徴と、特徴データ記憶領域M10に記憶されている各特徴データD5と、の類似度が算出され、算出された類似度が所定の閾値以上となる特徴データD5の対象人物PSが検出された特徴に一致する人物PSとして抽出され、人物PSが一意に特定される。また、検出される人物PSの特徴と、類似度が所定の閾値以上である特徴データD5が特徴データ記憶領域M10に記憶されていない場合には、当該特徴を有する人物PSに関して新たに特徴データD5を生成して新規に検出された人物PSとして記憶する。処理P3の結果、生成される特徴データD5は、例えば100次元のベクトルデータである。
さらに、第4ニューラルネットワークN4には、処理P1の結果とともに処理P2の結果が入力される。第4ニューラルネットワークN4は、処理P1及び処理P2の結果に基づき、撮影データD1に含まれる人物PSの対象空間SPにおける位置(座標)を検出する処理P4を実行する。
このような態様で抽出処理が行われる場合、データ生成部63は、抽出処理において撮影データD1から各要素間の距離を推定し、推定した距離に基づき人物PSを抽出しているといえる。
学習部632は、各種情報(例えば撮影データD1や広域ネットワークNW1を介して取得可能な情報)を用いて、各人物PSの特徴を適宜学習する。例えば、学習部632は、撮影データD1に含まれる人物PSの特徴を個別具体的に学習し、対応する特徴データD5を適宜更新する。これにより、人物PSの特徴の変動(例えば服装や髪型の変化等)に因る検出結果のゆらぎが抑制される。
抽出データ生成部633は、抽出部631による抽出処理の結果に基づき、抽出データD2(図9)を生成する。抽出データ生成部633は、抽出データD2において、抽出された人物PSのID、検出された場所(所在場所)、及び検出された時刻(所在時刻)の情報を組み入れる。抽出データ生成部633は、撮影データD1の送信元の撮影ユニット40毎に抽出データD2を生成する。
このような抽出部631及び抽出データ生成部633を含むデータ生成部63は、撮影データD1(撮影ユニット40が撮影した画像)に含まれている人物PSに関して所在位置及びその所在時刻を抽出する機能部といえる。
(2−4)管理部64
管理部64は、抽出データD2に基づき、対象空間SPに存在する人物PSの情報を管理する。管理部64は、定期的に(例えば5分周期で)処理を行う。例えば、管理部64は、抽出データ記憶領域M6に記憶されている各抽出データD2に基づき、抽出された人物PS毎に人物履歴データD3(図10)を個別に生成して人物履歴データ記憶領域M7に格納する。また、例えば、管理部64は、人物情報テーブルTB2を作成・更新して人物情報記憶領域M4に格納する。
(2−5)受付部65
受付部65は、管理装置に入力される情報を取得して入力情報記憶領域M8に格納する。例えば、受付部65は、端末90を介して入力されるコマンドを取得して、入力情報記憶領域M8に格納する。管理装置60に対して入力されるコマンドは、例えば、特定の人物PSの所在に関する情報(所在場所、所在位置、又は所定期間における所在履歴等に関する情報)の出力を指示する出力要求コマンドである。出力要求コマンドにおいては、人物PSのID、氏名又は所属グループ等の情報を用いて対象となる人物PSが指定される。
(2−6)情報検索部66
情報検索部66は、入力情報記憶領域M8に格納された出力要求コマンド(検索要求)に基づき、処理を実行する。情報検索部66は、出力要求コマンドにおいて指定される人物PSに関し、記憶部61に記憶されている各データ(人物履歴データD3又は人物情報等)を参照して検索し、当該人物PSの所在に関する情報(例えば最新の所在空間、所在位置又は所在履歴等)を示す表示データD4を検索結果として生成する。
表示データD4は、例えば図12のような態様で生成される。図12に示される表示データD4では、出力要求コマンドにおいて指定される人物PSのIDが「01139」であり氏名が「田中○○」であり所属グループ「G3」であって、「2018/03/05/18:00」から「2018/03/06/18:00」までの期間(指定期間)における所在履歴が特定されている。情報検索部66は、生成した表示データD4を出力情報記憶領域M9に格納する。
(2−7)出力制御部67
出力制御部67は、出力情報記憶領域M9に記憶されているデータを宛先となっている機器へ送信(出力)する。例えば、出力制御部67は、出力情報記憶領域M9に格納された表示データD4を、出力要求コマンドの送信元の端末90へ送信する。これにより、情報検索部66によって生成された表示データD4(検索結果)が、出力要求コマンドの送信元の端末90へ送信され、当該端末90において表示される。
(3)管理装置60による処理の流れ
以下、図13を参照して、管理装置60の処理の流れの一例を説明する。図13は、管理装置60の処理の流れの一例を示したフローチャートである。
管理装置60は、図13のステップS101からステップS106に示すような流れで処理を実行する。なお、図13に示す処理の流れは、適宜変更が可能であり、処理が適正に行われる限り、いずれかのステップの順序を入れ換えてもよいし、いずれかのステップが同時に実行されてもよいし、図示しない他のステップが追加されてもよい。
ステップS101において、管理装置60が撮影データD1を受信していない場合(つまり記憶部61に新たな撮影データD1が記憶されない場合、すなわちNOの場合)には、処理の流れはステップS105へ進む。一方、管理装置60が撮影データD1を受信している場合(つまり記憶部61に新たな撮影データD1が記憶されている場合、すなわちYESの場合)には、処理の流れはステップS102へ進む。
ステップS102において、管理装置60は、記憶部61から撮影データD1を取得し、取得した撮影データD1に含まれる人物PSを抽出する抽出処理を実行して、抽出データD2を生成する。その後、処理の流れはステップS103へ進む。
ステップS103において、抽出処理の結果、人物PSが抽出可能でない場合(撮影データD1において人物PSが検出されない場合)、すなわちNOの場合には、処理の流れはステップS105へ進む。一方、抽出処理の結果、人物PSが抽出可能である場合(撮影データD1において人物PSが検出された場合)、すなわちYESの場合には、処理の流れはステップS104へ進む。
ステップS104において、管理装置60は、抽出処理において抽出された人物PSに関して、所定処理を実行する。例えば、管理装置60は、抽出処理において抽出された人物PSに関して、人物履歴データD3を生成又は更新する。また、例えば、管理装置60は、抽出処理において抽出された人物PSに関して、人物情報テーブルTB2を生成又は更新する。また、例えば、管理装置60は、抽出処理において抽出された人物PSに関して、特徴を学習する。また、例えば、管理装置60は、抽出処理において抽出された人物PSに関して、特徴データD5を生成又は更新する。その後、処理の流れはステップS105へ進む。
ステップS105において、管理装置60が出力要求コマンドを受信していない場合(すなわちNOの場合)には、処理の流れはステップS101に戻る。一方、管理装置60が出力要求コマンドを受信している場合(すなわちYESの場合)には、処理の流れはステップS106へ進む。
ステップS106において、管理装置60は、出力要求コマンドにおいて指定される人物PSに関して指定される期間の所在履歴を示す表示データD4を生成する。管理装置60は、生成した表示データD4を、出力要求コマンドの送信元の端末90に出力する。これにより、生成された表示データD4が、出力要求コマンドの送信元の端末90において表示される。
(4)特徴
(4−1)
上記実施形態に係る管理システム100は、対象空間SPに設置される撮影ユニット40と、撮影データD1(撮影ユニット40が撮影した画像)に含まれる人物PSの特徴に基づいて対象空間SP内の人物PSを抽出して抽出データD2(抽出した人物PSに関連付けられたデータ)を生成するデータ生成部63と、データ生成部63が生成した抽出データD2を記憶する記憶部61と、抽出データD2に基づき対象空間SPに存在する人物PSの情報を管理する管理部64と、を有している。
これにより、撮影ユニット40の撮影データD1(撮影画像)に含まれる人物PSの特徴が識別され、抽出・特定された人物PSに関連して生成された抽出データD2に基づき、対象空間SPに存在する人物PSの情報が管理されるようになっている。その結果、対象空間SPにおいて人物PSの情報(例えば所在情報や所在履歴等の情報)を管理することが容易に可能となっている。例えば、ID情報を含むチップを埋め込まれた帽子等を着用する人物など、あらかじめ管理対象として認識されている人物以外の人の情報を管理することが可能となる。また、このような管理システム100は、例えば会社における労働者の勤怠管理や、学校における生徒の出欠管理、施設におけるセキュリティ管理等に利用可能に構成されている。
また、撮影ユニット40が対象空間SPの天井CI(又は天井付近)に設置されることにより、対象空間SPの広い範囲を撮影することが可能となっている。よって、対象空間SPにおいて人物PSの所在を高精度に検出することが可能となっている。
(4−2)
上記実施形態において、データ生成部63は、撮影データD1(撮影ユニット40が撮影した画像)に含まれている人物PSに関して所在位置を抽出するように構成されている。抽出データD2は、人物PSの所在位置に関する情報を含んでいる。これにより、対象空間SPにおいて人物PSの所在を管理することが容易に可能となっている。
(4−3)
上記実施形態において、データ生成部63は、撮影データD1(撮影ユニット40が撮影した画像)に含まれている人物PSに関して、所在時刻を抽出する。抽出データD2は、抽出した人物PSに関して所在時刻に関する情報を含む。これにより、対象空間SPにおいて人物PSの所在履歴を管理することが容易に可能となっている。
(4−4)
上記実施形態において、データ生成部63は対象空間SP内の人物PSの特徴(動作等)に基づき人物PSを抽出している。例えば、歩いている動作、作業している動作、デスクワーク、飲食など、人特有の動作を認識した際にその動作を行っている対象に関して、人物PSと認識され又は個人の特定がなされる。これにより人物PSの抽出及び個人の特定を高精度に行うことが可能となっている。
(4−5)
上記実施形態において、データ生成部63は、抽出処理において撮影データD1から各要素間の距離を推定し、推定した距離に基づき人物PSを抽出している。これにより、人物PSの抽出及び個人の特定を高精度に行うことが可能となっている。
(4−6)
上記実施形態において、データ生成部63は、撮影ユニット40が撮影した画像に基づき人物PSの特徴を学習する学習部632を含んでいる。これにより、人物PSの抽出及び個人の特定を高精度に行うことが可能となっている。
(4−7)
上記実施形態において、管理部64は、記憶部61に記憶されている抽出データD2に基づき、対象空間SPに存在する人物PSに関して、所在履歴に関する人物履歴データD3を個別に生成している。これにより、人の所在履歴が自動生成されるようになっている。
(4−8)
上記実施形態に係る管理システム100は、撮影ユニット40を複数有しており、データ生成部63は、複数の撮影ユニット40が撮影した画像に基づき、人物PSの特徴を識別するように構成されている。これにより、広範囲において人物PSを抽出することが出来るようになっている。
(4−9)
上記実施形態において、撮影ユニット40は、対象空間SPに設置される空気調和機(室内ユニット20)に配置されている。撮影ユニット40が係る態様で配置されることにより、対象空間SP内で広範囲において人物PSを抽出することが出来るようになっている。
(5)変形例
上記実施形態は、以下の変形例に示すように適宜変形が可能である。なお、各変形例は、矛盾が生じない範囲で他の変形例と組み合わせて適用されてもよい。
(5−1)変形例1
管理システム100は、特定の空間(対象空間SP)において存在する人物PSに関して個別に生成した人物履歴データD3に基づいて各人物PSの行動内容又は行動履歴を管理するシステムとして構成されてもよい。係る場合について、上記実施形態との相違点を以下に説明する。
具体的に、係る場合、データ生成部63は、撮影データD1に含まれている人物PSに関して、所在位置及び所在時刻のみならず、行動内容を抽出する。データ生成部63は、撮影データ記憶領域M5に記憶されている撮影データD1に含まれる人物PS、及び人物PSの行動内容を抽出して抽出データD2を生成する。
より詳細には、データ生成部63の抽出部631が、抽出処理において、撮影データ記憶領域M5に記憶されている撮影データD1を取得して、取得した撮影データD1に含まれている人物PSを抽出するとともに、その人物の行動内容を個別に抽出する。抽出部631は、人物PSに関して、所在位置、周囲に存在する人若しくは物、動作範囲、又は動作角度等に基づき、人物PSの行動内容を抽出する。ここでの「行動内容」には、対象空間SPにおける人物PSの在・不在のみならず、対象空間SPにおける人物PSの具体的な行為や作業内容についても含まれる。例えば、「行動内容」には、「読書」、「筆記作業」、「PCを用いた作業」、「PCにおいて最もアクティブな状態のアプリケーション(すなわち主に使用中のアプリケーション)」、「電話機を用いた通話」、「会話」、「会話の相手」、「会議」、「食事」、「水分摂取」、「摂取された飲食物の内容(品目、摂取量又は残存量等)」、「印刷機を用いた作業」、「清掃作業」「製造ラインにおける作業」、「歩行」、又は「体操」等、人物PSの行動の詳細が含まれる。
データ生成部63の抽出データ生成部633は、抽出部631による抽出処理の結果に基づき、抽出データD2を生成する。抽出データ生成部633は、抽出データD2において、抽出された人物PSのID、検出された場所(所在場所)、検出された時刻(所在時刻)、行動内容に関する情報を組み入れる。係る場合の抽出データD2は、抽出した人物PSの所在位置及び所在時刻に関する情報、及び抽出した人物PSに関して行動内容に関する情報を含んでいる。
抽出データD2は、例えば図14に示されるように、送信元撮影ユニット40のIDとその撮影場所、撮影データD1の受信日時、受信した撮影データD1において抽出された人物PSのID及び行動内容に関する情報である。なお、抽出データD2は、必ずしも図14の態様で生成される必要はなく、抽出データD2の生成態様については適宜変更が可能である。例えば、抽出データD2は、図14に含まれる情報のいずれかに代えて他の情報を含んでいてもよい。
図14では、抽出された人物PSの行動内容として、活動状態(主たる活動)、活動内容(具体的な活動内容)、及び活動詳細(活動内容の詳細)等が特定されている。より具体的に、図14では、例えば、IDが「0121」の撮影ユニット40から送信され撮影された場所が「(対象空間)SP2」であり撮影された日時が「2018/03/06/17:45」である撮影データD1に関して、抽出されたIDが「01139」の人物PSの行動内容として、「デスクワーク」を行っている状態にあること(活動状態)、「PCを用いた作業」を行っていること(活動内容)、及び「表計算ソフトを主として使用」していること(活動詳細)等が特定されている。すなわち、図14では、抽出された人物PSに関して、情報処理機器における作業内容に関する情報が特定されている。
また、図14では、撮影された日時が「2018/03/06/17:50」である撮影データD1に関して、抽出されたIDが「01139」の人物PSの行動内容として、「デスクワーク」を行っている状態にあること(活動状態)、「飲料摂取」を行っていること(活動内容)、及び「ペットボトル飲料(水)を摂取」していること(活動詳細)等が特定されている。
また、図14では、撮影された日時が「2018/03/06/17:55」である撮影データD1に関して、抽出されたIDが「01139」の人物PSの行動内容として、「離席」をしている状態にあること(活動状態)、「立ち話」をしていること(活動内容)、及び「話し相手の人物IDが00998」であること(活動詳細)等が特定されている。すなわち、図14に示される抽出データD2においては、抽出された人物PSに関して会話の相手が特定されている。
このような抽出データD2に基づき、人物履歴データD3が、人物PSの対象施設1における行動内容の履歴(行動履歴)に関する情報として生成される。人物履歴データD3は、例えば図15に示されるように、人物PSのID、撮影した撮影ユニット40のID、所在場所(撮影された場所)、所在日時(撮影された日時)及び行動履歴等を含む情報である。図15に示される人物履歴データD3では、IDが「01139」の人物PSに関する5分毎の行動履歴が特定されている。なお、人物履歴データD3において定義される行動履歴は、必ずしも5分毎である必要はない。また、人物履歴データD3は、必ずしも図15の態様で生成される必要はなく、人物履歴データD3の生成態様については適宜変更が可能である。例えば、人物履歴データD3は、図15に含まれる情報のいずれかに代えて他の情報を含んでいてもよい。例えば、人物履歴データD3は、「摂取された飲食物の摂取量又は残存量」に関する情報を含んでいてもよい。また例えば、人物履歴データD3は、「使用中のPCにおいて表示されているインターネット上のホームページ」に関する情報を含んでいてもよい。
このような態様で生成される人物履歴データD3は、日々の行動の分析若しくは最適化、計画の作成若しくは評価、人物PSの評価若しくは健康管理等、様々な用途に用いることが可能である。
なお、「PCにおいて最もアクティブな状態のアプリケーション」に係る情報に関しては、管理装置60は、撮影ユニット40における撮影結果に基づいて取得してよいことはもちろんであるが、抽出された人物PSが使用中のパーソナルコンピュータ等の情報処理機器から通信ネットワークを介して当該情報を取得してもよい。係る場合、管理装置は、人物PSが使用する情報処理機器と通信ネットワーク(無線ネットワーク又は/及び有線ネットワーク)で通信可能に接続される。また、当該情報は、例えば取得部62によって取得される。
係る管理装置60は、特定の人物PSの行動履歴を出力することを要求する出力要求コマンドを入力された場合には、当該コマンドにおいて指定された人物PSに関して、人物履歴データD3に基づき、行動履歴に関する情報を示す表示データD4を生成して出力するように構成されてもよい。すなわち、図13のフローのステップS106において、管理装置60は、出力要求コマンドにおいて指定される人物PSに関して指定される期間の行動内容の履歴(行動履歴)を示す表示データD4を生成するように構成されてもよい。
例えば、情報検索部66が、出力要求コマンドにおいて指定される人物PSに関し、記憶部61に記憶されている各データ(人物履歴データD3又は人物情報等)を参照して検索し、当該人物PSの行動履歴に関する情報を示す表示データD4を検索結果として生成するようにしてもよい。
係る場合、表示データD4は、例えば図16のような態様で生成される。なお、表示データD4は、必ずしも図16の態様で生成される必要はなく、表示データD4の生成態様については適宜変更が可能である。例えば、表示データD4は、図16に含まれる情報のいずれかに代えて他の情報を含んでいてもよい。
図16に示される表示データD4では、出力要求コマンドにおいて指定される人物PSのIDが「01139」であり氏名が「田中○○」であり所属グループ「G3」であって、「2018/03/06/09:00」から「2018/03/06/18:00」までの期間(指定期間)における行動履歴が特定されている。図16に示される人物履歴データD3では、例えば、「2018/03/06/13:50」の行動履歴として、「ミーティング」に参加している状態にあること(活動状態)、「プレゼンテーション」を行っていること(活動内容)、及び「他の参加者のIDが0164、00998、91321」であること(活動詳細)等が特定されている。
また、管理装置60は、生成した表示データD4を、出力要求コマンドの送信元の端末90に出力する。これにより、生成された表示データD4が、出力要求コマンドの送信元の端末90において表示されることとなる。
なお、表示データD4は、例えば、図17に示されるような態様で生成されてもよい。図17は、端末90のディスプレイにおいて行動履歴が表示される場合の、表示データD4の一例が示されている。図17では、指定された期間における対象人物PSの行動履歴が、詳細に示されている。なお、表示データD4の生成態様については適宜変更が可能である。
本変形例に係る態様で管理装置60が構成されることで、人物PSの具体的な行動内容を把握することが可能となる。特に各人物PSの詳細な行動履歴を、労力を抑制しつつ管理できるようになる。
(5−2)変形例2
上記実施形態では、撮影ユニット40は、対象空間SPの天井CIに埋めこまれる天井埋込型の室内ユニット20内に配置されている。しかし、撮影ユニット40の配置態様は、必ずしもこれに限定されず、適宜変更が可能である。例えば、いずれか/全ての撮影ユニット40は、対象空間SPの天井から吊り下げられる天井吊下型の室内ユニット20内に配置されてもよいし、対象空間SPの側壁SWに設置される壁掛型の室内ユニット20内に配置されてもよい。また、例えば、いずれか/全ての撮影ユニット40は、必ずしも室内ユニット20内に配置される必要はなく、他の機器内に配置されてもよいし、独立して設置されてもよい。
また、撮影ユニット40は、対象空間SPの撮影を行ううえで支障がない場合には、必ずしも対象空間SPの天井又は天井付近に配置される必要はない。例えば、撮影ユニット40は、天井よりも床面に近い位置に設置されてもよい。
(5−3)変形例3
上記実施形態では、抽出処理が図11に示すような態様で行われる例について説明した。しかし、抽出処理は、他の態様によって行われてもよいことはもちろんである。例えば、抽出処理は、ニューラルネットワーク以外の手段を用いて実行されてもよい。例えば、管理者等によって予め登録されている人物PSの特徴を定義したデータに基づいて、係る特徴が撮影データD1から抽出されることで人物PSが抽出・特定されてもよい。また、抽出処理においては、必ずしも人物PSの動作に基づいて人物PSが抽出される必要はない。すなわち、抽出処理において用いられる人物PSの特徴については適宜変更が可能である。
また、抽出処理は、必ずしも毎時行われる必要はなく、所定のタイミングで行われてもよい。例えば、抽出処理は、定期的に(例えば5分周期で)行われてもよい。
また、抽出処理は、必ずしも動画(撮影データD1)に基づいて行われる必要はない。例えば、抽出処理は、複数の静止画(撮影データD1)に基づいて行われてもよい。
(5−4)変形例4
上記実施形態では、撮影データD1は、対象空間SPの所定範囲を所定のピクセルで表わした画像データ(動画データ)を含んでいた。しかし、撮影データD1の形式については設置環境や設計仕様等に応じて適宜変更が可能である。例えば、撮影データD1は、対象空間SPの所定範囲を所定のピクセルで表わした画像データ(静止画)であってもよい。
(5−5)変形例5
上記実施形態では、一の対象空間SPに1台の撮影ユニット40が配置されている。しかし、撮影ユニット40の配置態様については、必ずしもこれに限定されず、適宜変更が可能である。例えば、一の対象空間SPに複数台の撮影ユニット40が配置されてもよい。係る場合、複数の撮影ユニット40が撮影した各撮影データD1に基づき人物PSの特徴が識別される。すなわち、一の対象空間SPにおいて異なる撮影角度で撮影された撮影データD1に基づいて抽出処理が行われることから、人物PSの抽出及び個人の特定を高精度に行うことが可能である。
(5−6)変形例6
上記実施形態では、撮影ユニット情報が図7に示されるような撮影ユニット情報テーブルTB1として生成されている。撮影ユニット情報は、必ずしも係る態様で生成される必要はなく、撮影ユニット情報の生成態様については適宜変更が可能である。
(5−7)変形例7
上記実施形態では、人物情報は、例えば図8に示されるような人物情報テーブルTB2として生成されている。人物情報は、必ずしも係る態様で生成される必要はなく、人物情報の生成態様については適宜変更が可能である。すなわち、人物情報テーブルTB2は、図8に含まれる情報のいずれかに代えて他の情報(例えば人物PSの寸法、人物PSの状態、及び人物PS間の関係性等の情報)を含んでいてもよい。
(5−8)変形例8
上記実施形態では、抽出データD2が図9に示されるような態様で生成されている。しかし、抽出データD2は、必ずしも係る態様で生成される必要はなく、抽出データD2の生成態様については適宜変更が可能である。例えば、抽出データD2は、図9に含まれる情報のいずれかに代えて他の情報を含んでいてもよい。
(5−9)変形例9
上記実施形態では、人物履歴データD3が図10に示されるような態様で生成されている。しかし、人物履歴データD3は、必ずしも係る態様で生成される必要はなく、人物履歴データD3の生成態様については適宜変更が可能である。例えば、人物履歴データD3は、図10に含まれる情報のいずれかに代えて他の情報を含んでいてもよい。
(5−10)変形例10
上記実施形態では、表示データD4が図12に示されるような態様で生成されている。しかし、表示データD4は、必ずしも係る態様で生成される必要はなく、表示データD4の生成態様については適宜変更が可能である。例えば、表示データD4は、図12に含まれる情報のいずれかに代えて他の情報を含んでいてもよい。また、例えば、出力要求コマンドが人物PSの所在位置を要求するものである場合には、表示データD4は、当該人物PSの最新の所在空間と所在位置のみを示すものであってもよい。また、例えば、出力要求コマンドが人物PSの所在位置を要求するものである場合には、指定された人物PSが存在する対象空間SPを撮影する撮影ユニット40の撮影データD1を表示データD4として出力させてもよい。
(5−11)変形例11
上記実施形態では、管理装置60は、撮影データD1において人物PSを抽出した後、抽出された人物PSに関して、所定処理を実行している(図13のステップS104)。ここで、図13のステップS104の処理のいずれかについては適宜省略されてもよい。例えば、管理装置60は、必ずしも抽出処理において抽出された人物PSに関して特徴を学習する必要はない。また、例えば、管理装置60は、必ずしも抽出処理において抽出された人物PSに関して特徴データD5を生成又は更新する必要はない。
(5−12)変形例12
上記実施形態では、管理装置60は、撮影データD1に基づいて生成された抽出データD2に基づいて人物履歴データD3を生成し、人物履歴データD3に基づいて出力要求コマンド(検索要求)に対する処理結果(表示データD4)を生成していた。しかし、管理装置60は、人物履歴データD3に代えて抽出データD2に基づいて出力要求コマンド(検索要求)に対する処理結果(表示データD4)を生成してもよい。
(5−13)変形例13
上記実施形態では、データ生成部63は、撮影データD1に基づき人物PSの特徴を学習する学習部632を有している。しかし、データ生成部63は、必ずしも学習部632を有している必要はない。
(5−14)変形例14
上記実施形態では、管理システム100が、複数(6つ)の対象空間SPを含む対象施設1において適用されている。しかし、管理システム100が適用される対象施設1における対象空間SPの数については適宜変更が可能である。例えば、管理システム100は、7以上又は5以下の対象空間SPを含む対象施設に適用されてもよい。また、例えば、管理システム100は、単一の対象空間SPを含む対象施設に適用されてもよい。
(5−15)変形例15
上記実施形態では、端末90が管理装置60に対して出力要求コマンドを入力する「入力部」として機能している。しかし、必ずしもこれに限定されず、端末90以外の装置を係る「入力部」として機能させてもよい。例えばリモコン30、サーバ50又は他の装置を係る「入力部」として機能させてもよい。
また、上記実施形態では、端末90が出力要求コマンドに対する処理結果(表示データD4)を出力する「出力部」として機能している。しかし、必ずしもこれに限定されず、端末90以外の装置を係る「出力部」として機能させてもよい。例えばリモコン30、サーバ50又は他の装置を係る「出力部」として機能させてもよい。
また、「出力部」における情報の出力態様としては、必ずしもデータの表示には限定されない。例えば、「出力部」が音声を出力可能なスピーカを有している場合には、音声データを出力させることで出力要求コマンドに対する処理結果が出力されてもよい。
(5−16)変形例16
上記実施形態では、各ユニット間(例えば、室外ユニット制御部18―室内ユニット制御部25間、室内ユニット制御部25―室内ユニット制御部25間、室内ユニット制御部25―リモコン制御部35間、及び室内ユニット制御部25―撮影ユニット40間)において、通信線を用いて通信ネットワークが構成されていた。しかし、各ユニット間においては、通信線に加えて/通信線に代えて、電波や赤外線を用いた無線通信によって通信ネットワークが構成されてもよいことはもちろんである。また、室外ユニット制御部18又はサーバ50は、通信線に加えて/通信線に代えて、無線通信によって広域ネットワークNW1に接続されてもよい。
(5−17)変形例17
上記実施形態では、サーバ50は、広域ネットワークNW1を介して室外ユニット制御部18、室内ユニット制御部25及びリモコン制御部35と通信可能に構成されていたが、LAN(ローカル・エリア・ネットワーク)を介してこれらのユニットと通信可能に構成されてもよい。
(5−18)変形例18
上記実施形態では、管理装置60は、室外ユニット制御部18、室内ユニット制御部25、リモコン制御部35及びサーバ50が通信ネットワークを介して接続されることで構成されている。しかし、管理装置60の構成態様は、必ずしもこれに限定されず、他の態様で構成されてもよい。例えば、管理装置60の構成機器として、室外ユニット制御部18、室内ユニット制御部25、リモコン制御部35及びサーバ50のいずれかが省略されてもよい。また、例えば、室外ユニット制御部18、室内ユニット制御部25、リモコン制御部35及びサーバ50、のいずれかに代えて/とともに、別の機器が通信ネットワークを介して接続されることで管理装置60が構成されてもよい。また、管理装置60は、必ずしも広域ネットワークNW1に跨って構成される必要はなく、LANに接続される機器のみで構成されてもよい。
(5−19)変形例19
上記実施形態における「人物」は、生物と読み替え可能である。換言すると、管理システム100は、対象空間SPにおいて存在する生物に関して個別に生成した生物履歴データD3に基づいて各生物の、所在履歴、行動内容又は行動履歴を管理するシステムとして構成されてもよい。ここでの生物は、撮影データD1から抽出可能である限り、特に限定されないが、例えばペット、家畜、又は野生動物等である。すなわち、本開示に係る思想は、人以外の生物にも適用可能である。
(6)
以上、実施形態を説明したが、特許請求の範囲に記載の趣旨及び範囲から逸脱することなく、形態や詳細の多様な変更が可能なことが理解されるであろう。
本開示は、情報管理システムに利用可能である。
1 :対象施設
10 :空気調和装置
15 :室外ユニット
18 :室外ユニット制御部
20、(20a―20f):室内ユニット(空気調和機)
25 :室内ユニット制御部
30、(30a―30f):リモコン
35 :リモコン制御部
40、(40a―40f):撮影ユニット(撮影機器)
41 :撮影部
42 :撮影データ生成部
43 :撮影データ出力部
50 :サーバ
60 :管理装置
61 :記憶部
62 :取得部
63 :データ生成部
64 :管理部
65 :受付部
66 :情報検索部
67 :出力制御部(出力部)
90 :端末(出力部)
100 :管理システム(情報管理システム)
631 :抽出部
632 :学習部
633 :抽出データ生成部
CI :天井
D1 :撮影データ
D2 :抽出データ(人物データ)
D3 :人物履歴データ
D4 :表示データ
D5 :特徴データ
GP :ガス連絡配管
LP :液連絡配管
M1 :プログラム情報記憶領域
M2 :環境情報記憶領域
M3 :システム情報記憶領域
M4 :人物情報記憶領域
M5 :撮影データ記憶領域
M6 :抽出データ記憶領域
M7 :人物履歴データ記憶領域
M8 :入力情報記憶領域
M9 :出力情報記憶領域
M10 :特徴データ記憶領域
N1 :第1ニューラルネットワーク
N2 :第2ニューラルネットワーク
N3 :第3ニューラルネットワーク
N4 :第4ニューラルネットワーク
NW1 :広域ネットワーク
PS :人物
SP、(SP1―SP6):対象空間
SW :側壁
TB1 :撮影ユニット情報テーブル
TB2 :人物情報テーブル
cb1―cb4 :通信線
特開2017−45373号公報

Claims (15)

  1. 対象空間(SP)に設置される撮影機器(40)と、
    前記撮影機器が撮影した画像(D1)に含まれる人(PS)の特徴に基づいて前記対象空間内の前記人を抽出し、抽出した前記人に関連付けた人物データ(D2)を生成するデータ生成部(63)と、
    前記データ生成部が生成した前記人物データを記憶する記憶部(61)と、
    前記人物データに基づき、前記対象空間に存在する前記人の情報を管理する管理部(64)と、
    を備える、
    情報管理システム(100)。
  2. 前記データ生成部は、前記撮影機器が撮影した前記画像に含まれている前記人に関して所在位置を抽出し、
    前記人物データは、前記人の所在位置に関する情報を含む、
    請求項1に記載の情報管理システム(100)。
  3. 前記データ生成部は、前記撮影機器が撮影した前記画像に含まれている前記人に関して、所在時刻を抽出し、
    前記人物データは、抽出した前記人に関して所在時刻に関する情報を含む、
    請求項1又は2に記載の情報管理システム(100)。
  4. 前記データ生成部は、前記撮影機器が撮影した前記画像に含まれている前記人に関して、行動内容を抽出し、
    前記人物データは、抽出した前記人に関して行動内容に関する情報を含む、
    請求項1から3のいずれか1項に記載の情報管理システム(100)。
  5. 前記データ生成部は、前記撮影機器が撮影した前記画像に含まれている前記人に関して、所在時刻及び行動内容を抽出し、
    前記人物データは、抽出した前記人に関して所在時刻及び行動内容に関する情報を含む、
    請求項1又は2に記載の情報管理システム(100)。
  6. 前記データ生成部は、前記撮影機器が撮影した前記画像に含まれている前記人に関して、会話の相手を、前記行動内容として抽出する、
    請求項4又は5に記載の情報管理システム(100)。
  7. 前記人物データは、抽出した前記人に関して前記行動内容の履歴に関する情報を含む、
    請求項4から6のいずれか1項に記載の情報管理システム(100)。
  8. 前記データ生成部は、情報処理機器を用いて作業を行っている前記人に関して前記情報処理機器における作業内容を抽出し、
    前記人物データは、前記撮影機器が撮影した前記画像に含まれている前記人に関して、前記情報処理機器における作業内容に関する情報を含む、
    請求項1から7のいずれか1項に記載の情報管理システム(100)。
  9. 前記人物データを出力する出力部(67/90)をさらに備える、
    請求項1から8のいずれか1項に記載の情報管理システム(100)。
  10. 前記データ生成部は、前記対象空間内の前記人の動作に基づき前記人を抽出する、
    請求項1から9のいずれか1項に記載の情報管理システム(100)。
  11. 前記データ生成部は、前記画像から各要素間の距離を推定し、推定した距離に基づき前記人を抽出する、
    請求項1から10のいずれか1項に記載の情報管理システム(100)。
  12. 前記データ生成部は、前記撮影機器が撮影した前記画像に基づき前記人の特徴を学習する学習部(632)を含む、
    請求項1から11のいずれか1項に記載の情報管理システム(100)。
  13. 前記管理部は、前記記憶部に記憶されている前記人物データに基づき、前記対象空間に存在する前記人に関して、所在履歴又は行動履歴に関する人物履歴データ(D3)を個別に生成する、
    請求項1から12のいずれか1項に記載の情報管理システム(100)。
  14. 前記撮影機器を複数備え、
    前記データ生成部は、複数の前記撮影機器が撮影した前記画像に基づき、前記人の特徴を識別する、
    請求項1から13のいずれか1項に記載の情報管理システム(100)。
  15. 前記撮影機器は、前記対象空間に設置される空気調和機(20)に配置される、
    請求項1から14のいずれか1項に記載の情報管理システム(100)。
JP2018200345A 2018-03-30 2018-10-24 情報管理システム Pending JP2019185724A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP19775702.4A EP3779870A4 (en) 2018-03-30 2019-03-26 INFORMATION MANAGEMENT SYSTEM
US17/043,405 US20210142051A1 (en) 2018-03-30 2019-03-26 Information management system
CN201980023874.XA CN112005246A (zh) 2018-03-30 2019-03-26 信息管理***
PCT/JP2019/012850 WO2019189179A1 (ja) 2018-03-30 2019-03-26 情報管理システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018070182 2018-03-30
JP2018070182 2018-03-30

Publications (1)

Publication Number Publication Date
JP2019185724A true JP2019185724A (ja) 2019-10-24

Family

ID=68341533

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018200345A Pending JP2019185724A (ja) 2018-03-30 2018-10-24 情報管理システム

Country Status (4)

Country Link
US (1) US20210142051A1 (ja)
EP (1) EP3779870A4 (ja)
JP (1) JP2019185724A (ja)
CN (1) CN112005246A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022259690A1 (ja) * 2021-06-11 2022-12-15 パナソニックIpマネジメント株式会社 作業分析装置及び方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10134191A (ja) * 1996-11-01 1998-05-22 Corp Miyuki:Kk 顔形状による人物識別システム
JP2010002962A (ja) * 2008-06-18 2010-01-07 Laurel Bank Mach Co Ltd 行動管理システム
JP2012208854A (ja) * 2011-03-30 2012-10-25 Nippon Telegraph & Telephone East Corp 行動履歴管理システムおよび行動履歴管理方法
JP2016017707A (ja) * 2014-07-09 2016-02-01 日立アプライアンス株式会社 空気調和システム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8392552B2 (en) * 2000-09-28 2013-03-05 Vig Acquisitions Ltd., L.L.C. System and method for providing configurable security monitoring utilizing an integrated information system
JP2002171537A (ja) * 2000-11-30 2002-06-14 Canon Inc 複眼撮像系、撮像装置および電子機器
GB201113633D0 (en) * 2011-08-08 2011-09-21 Vision Semantics Ltd User-primed iterative discovery of object associations in distributed multi-source data
US10194601B2 (en) * 2014-02-28 2019-02-05 Carlos R. Villamar System and method for solar greenhouse aquaponics and black soldier fly composter and auto fish feeder
WO2017029718A1 (ja) * 2015-08-19 2017-02-23 株式会社 テクノミライ スマートセキュリティ・デジタルシステム、方法及びプログラム
JPWO2017072923A1 (ja) * 2015-10-29 2017-10-26 株式会社 テクノミライ デジタルセフテイ・サポートシステム、方法及びプログラム
US20180050229A1 (en) * 2016-08-16 2018-02-22 Gary Abernathy Real Time Damper Visual Verification Device and System
GB2569772B (en) * 2017-10-11 2023-01-18 Pci Pal U K Ltd Processing sensitive information over VOIP
CN113748415B (zh) * 2019-05-23 2024-01-30 日立江森自控空调有限公司 管理装置、管理方法以及计算机可读的记录介质
US11997371B2 (en) * 2021-01-22 2024-05-28 Magna Electronics Inc. Vehicular cooling system for forward camera module

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10134191A (ja) * 1996-11-01 1998-05-22 Corp Miyuki:Kk 顔形状による人物識別システム
JP2010002962A (ja) * 2008-06-18 2010-01-07 Laurel Bank Mach Co Ltd 行動管理システム
JP2012208854A (ja) * 2011-03-30 2012-10-25 Nippon Telegraph & Telephone East Corp 行動履歴管理システムおよび行動履歴管理方法
JP2016017707A (ja) * 2014-07-09 2016-02-01 日立アプライアンス株式会社 空気調和システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022259690A1 (ja) * 2021-06-11 2022-12-15 パナソニックIpマネジメント株式会社 作業分析装置及び方法

Also Published As

Publication number Publication date
EP3779870A4 (en) 2021-08-25
EP3779870A1 (en) 2021-02-17
US20210142051A1 (en) 2021-05-13
CN112005246A (zh) 2020-11-27

Similar Documents

Publication Publication Date Title
JP6828713B2 (ja) 心身状態認識システム
US10140769B2 (en) Electronic device and method for providing map service
US9585229B2 (en) Anticipatory lighting from device screens based on user profile
CN105446162A (zh) 一种智能家居***以及机器人的智能家居控制方法
JP2015144116A (ja) 携帯端末、携帯端末の制御方法及びプログラム
WO2019189179A1 (ja) 情報管理システム
CN107306383B (zh) 推定操作者的方法、装置以及记录介质
JP6615382B2 (ja) 制御装置及び制御システム
JP2015087102A (ja) 機器管理システム、機器管理装置、制御方法及びプログラム
CN105323549A (zh) 使用监视设备映射传感器位置和事件操作的方法和设备
US20110176025A1 (en) Video information processing apparatus, video information processing method, and computer-readable storage medium
JP2021006946A (ja) 管理システム、空間設備制御システム、空間設備運用システム、管理方法、プログラム
JP2019185724A (ja) 情報管理システム
US20180357547A1 (en) Inter-device coordination apparatus in sensor network, inter-device coordination method, inter-device coordination program and recording medium storing the program
TWI677833B (zh) 個性化定制系統及方法
TWI671693B (zh) 行為分析學習系統及方法
US9692918B2 (en) Device control system and device control method for managing remote conference
US11391483B2 (en) Automatic assignment between flow control devices, sensor devices and control devices in an HVAC application
JP7311478B2 (ja) 情報処理装置、情報処理プログラム及び情報処理システム
JP2019179524A (ja) 物品管理システム
WO2018179049A1 (ja) 室内環境調整システム、遠隔制御装置、調整機器及び室内環境調整方法
JP2015018823A (ja) 照明制御装置、人感センサ、および照明制御方法
JP2021157941A (ja) 照明制御システムおよび照明制御方法
JP2022117761A (ja) センサシステム、画像センサ、サーバ装置、センシング方法、およびプログラム
JP7212500B2 (ja) 遠隔管理装置及び遠隔管理システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200923

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201110

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210413