JP7296559B2 - 情報処理方法、情報処理プログラム及び情報処理システム - Google Patents

情報処理方法、情報処理プログラム及び情報処理システム Download PDF

Info

Publication number
JP7296559B2
JP7296559B2 JP2020525380A JP2020525380A JP7296559B2 JP 7296559 B2 JP7296559 B2 JP 7296559B2 JP 2020525380 A JP2020525380 A JP 2020525380A JP 2020525380 A JP2020525380 A JP 2020525380A JP 7296559 B2 JP7296559 B2 JP 7296559B2
Authority
JP
Japan
Prior art keywords
person
conversation
resident
visitor
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020525380A
Other languages
English (en)
Other versions
JPWO2019239813A1 (ja
Inventor
哲也 高柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2019239813A1 publication Critical patent/JPWO2019239813A1/ja
Application granted granted Critical
Publication of JP7296559B2 publication Critical patent/JP7296559B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • G06F9/542Event management; Broadcasting; Multicasting; Notifications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/80ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for detecting, monitoring or modelling epidemics or pandemics, e.g. flu

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Software Systems (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Description

本開示は、感染症に感染する危険性を通知する情報処理方法、情報処理プログラム及び情報処理システムに関するものである。
インフルエンザを始めとする多くの感染症は、接触感染、飛沫感染及び空気感染などの様々な感染経路を通じて、人と人との間で伝播する。例えば、空間内に1人の感染者が居ると、種々の感染経路を通じて、感受者への感染が起きる。そして、一旦、感染者から感受者の集団へ感染症が持ち込まれた場合には、次々と感染症が伝播し、集団感染が発生するおそれがある。健康弱者である高齢者及び子供などは、感染症が重症化し易く、最悪の場合には死に至る例も報告されている。特に、高齢者が共同で生活している介護施設では、施設内の職員は、マスクの着用及び手指衛生の徹底等の感染症対策を行っているにもかかわらず、外部から施設への来訪者による感染症の持ち込みが火種となって、施設内で集団感染が起きる場合がある。
このような感染症の外部からの持ち込みに対して、例えば、特許文献1には、入室時刻からの経過時間が所定値以内となる条件を満足する認証者を屋外入室者と判定し、屋外入室者を累積して屋外入室者累積人数を算出し、当該屋内入室者が入室した居室の在室者人数を算出し、屋外入室者累積人数を在室者人数で除算して屋外入室者割合を算出し、屋外入室者割合が所定値を超えたとき、室内の相対温度及び相対湿度をインフルエンザウイルスが非活化されるといわれている温度及び湿度に空調制御の設定値を設定する技術が開示されている。
また、非特許文献1によれば、感染者が吐く息の中に感染ウイルスが含まれるという事例が報告されている。
特開2014-5993号公報
Jing Yan et al.、「Infectious virus in exhaled breath of symptomatic seasonal influenza cases from a college community」、PNAS、2018年
しかしながら、上記従来の技術では、来訪者との会話に起因して施設の居住者が感染症に感染する危険性を推定することができず、更なる改善が必要とされていた。
本開示は、上記の問題を解決するためになされたもので、来訪者との会話に起因して施設の居住者が感染症に感染する危険性を推定することができる技術を提供するものである。
本開示の一態様に係る情報処理方法は、コンピュータが、所定の施設にいる第1人物の第1画像と前記所定の施設にいる第2人物の第2画像を含む画像情報を取得し、前記第1人物と前記第2人物の各々を前記施設の居住者または前記施設の来訪者に分類し、これにより、前記第1人物は前記居住者に分類され、前記第2人物は前記来訪者に分類され、前記第1画像と前記第2画像に基づいて、前記第1人物と前記第2人物との間の距離を算出し、算出した前記距離に基づいて、前記第1人物と前記第2人物とが会話しているか否かを判断し、前記第1人物と前記第2人物とが会話していると判断した場合、前記第1人物と前記第2人物とが会話している会話時間を計測し、前記計測した会話時間が所定の時間を超えた場合、前記第1人物が感染症に感染する危険性が高いことを示す感染通知情報を端末装置へ送信する。
尚、この包括的又は具体的な態様は、装置、システム、集積回路、コンピュータプログラム又はコンピュータ読み取り可能な記録媒体で実現されてもよく、装置、システム、方法、集積回路、コンピュータプログラム及びコンピュータ読み取り可能な記録媒体の任意な組み合わせで実現されてもよい。コンピュータ読み取り可能な記録媒体は、例えばCD-ROM(Compact Disc-Read Only Memory)等の不揮発性の記録媒体を含む。
本開示によれば、来訪者との会話に起因して施設の居住者が感染症に感染する危険性を推定することができ、居住者が感染症に感染するのを未然に防止することができる。
本開示の一態様における更なる利点および効果は、明細書および図面から明らかにされる。かかる利点および/または効果は、いくつかの実施形態並びに明細書および図面に記載された特徴によってそれぞれ提供されるが、1つまたはそれ以上の同一の特徴を得るために必ずしも全てが提供される必要はない。
本開示の実施の形態1における感染リスク通知システムの構成を示す図 本実施の形態1における感染リスク通知装置の動作を説明するための第1のフローチャート 本実施の形態1における感染リスク通知装置の動作を説明するための第2のフローチャート 本実施の形態1における感染リスク通知装置の動作を説明するための第3のフローチャート 本実施の形態1において端末装置に表示される感染通知情報の一例を示す図 本実施の形態1において端末装置に表示される履歴情報の一例を示す図 本開示の実施の形態2における感染リスク通知システムの構成を示す図 本実施の形態2におけるカメラの動作を説明するための第1のフローチャート 本実施の形態2におけるカメラの動作を説明するための第2のフローチャート 本実施の形態2における感染リスク通知装置の動作を説明するための第1のフローチャート 本実施の形態2における感染リスク通知装置の動作を説明するための第2のフローチャート
(本開示の基礎となった知見)
従来の技術では、屋外入室者累積人数を在室者人数で除算して屋外入室者割合を算出し、統計的な感染リスクを評価しているため、実際に感染が成立する重要なプロセスである屋外入室者と屋内に居た人とが対話することにより発生する感染の危険性が加味されていない。対話時において、人と人との距離が近接するということは、一方の人が感染者である場合に、他方の人の接触感染又は飛沫感染の危険性が高くなるということを意味する。
また、感染者は咳又はくしゃみをしなくても、呼吸をしていれば、感染ウイルスを放出している可能性がある。したがって、人と人とが近接して会話する場合、接触感染及び飛沫感染の危険性に加えて、空気感染の危険性も高まっている可能性がある。
以上の課題を解決するために、本開示の一態様に係る情報処理方法は、コンピュータが、所定の施設にいる第1人物の第1画像と前記所定の施設にいる第2人物の第2画像を含む画像情報を取得し、前記第1人物と前記第2人物の各々を前記施設の居住者または前記施設の来訪者に分類し、これにより、前記第1人物は前記居住者に分類され、前記第2人物は前記来訪者に分類され、前記第1画像と前記第2画像に基づいて、前記第1人物と前記第2人物との間の距離を算出し、算出した前記距離に基づいて、前記第1人物と前記第2人物とが会話しているか否かを判断し、前記第1人物と前記第2人物とが会話していると判断した場合、前記第1人物と前記第2人物とが会話している会話時間を計測し、前記計測した会話時間が所定の時間を超えた場合、前記第1人物が感染症に感染する危険性が高いことを示す感染通知情報を端末装置へ送信する。
この構成によれば、居住者と来訪者とが会話している会話時間が計測され、計測された会話時間が所定の時間を超えた場合、居住者が感染症に感染する危険性が高いことを示す感染通知情報が端末装置へ送信されるので、来訪者との会話に起因して施設の居住者が感染症に感染する危険性を推定することができ、居住者が感染症に感染するのを未然に防止することができる。
また、上記の情報処理方法において、さらに、前記第2人物が前記感染症に感染しているか否かを示す感染情報を取得し、さらに、取得した前記感染情報に応じて前記所定の時間を変更してもよい。
この構成によれば、来訪者が感染症に感染しているか否かを示す感染情報が取得され、取得された感染情報に応じて所定の時間が変更される。したがって、来訪者が感染症に感染している場合に、所定の時間をより短く設定し、来訪者が感染症に感染していない場合に、所定の時間をより長く設定することにより、居住者が感染症に感染する危険性をより低減することができる。
また、上記の情報処理方法において、さらに、前記会話時間の計測中に、前記第1人物と前記第2人物とが会話していないと判断した場合、前記第1人物と前記第2人物との会話が中断した中断時間を計測し、前記会話時間の計測は、計測している前記中断時間が所定の時間を超える前に、前記第1人物と前記第2人物との会話が再開した場合、前記会話時間の計測を再開してもよい。
この構成によれば、来訪者が一時的に居住者から離れることによって会話が中断した後、戻ってきた来訪者が居住者との会話を再開した場合、中断する前の会話時間と中断した後の会話時間とが累積して計測されるので、来訪者との会話に起因して施設の居住者が感染症に感染する危険性をより正確に推定することができる。
また、上記の情報処理方法において、前記判断は、前記距離が所定の距離以下である場合、前記第1人物と前記第2人物とが会話していると判断してもよい。
この構成によれば、居住者と来訪者との間の距離が近ければ、居住者と来訪者とが会話していると推定することができる。
また、上記の情報処理方法において、さらに、前記画像情報に基づいて、前記第1人物の顔の向きと、前記第2人物の顔の向きとを認識し、前記判断は、前記距離が所定の距離以下であり、かつ前記第1人物の顔の向きと前記第2人物の顔の向きとが対向する場合、前記第1人物と前記第2人物とが会話していると判断してもよい。
この構成によれば、居住者と来訪者との間の距離が近く、かつ居住者の顔の向きと来訪者の顔の向きとが対向している場合、居住者と来訪者とが会話していると推定することができ、居住者が感染症に感染する危険性をより正確に推定することができる。
また、上記の情報処理方法において、前記第1人物の顔画像が予め登録されており、前記画像情報に含まれる第1人物の顔画像が、前記予め登録された顔画像と一致してもよい。
この構成によれば、画像情報に含まれる人物の顔画像が、予め登録されている顔画像と一致する場合、当該人物が居住者に分類され、画像情報に含まれる人物の顔画像が、予め登録されている顔画像と一致しない場合、当該人物が来訪者に分類されるので、居住者の顔画像を予め登録しかつ来訪者の顔画像を予め登録せずに、当該人物を居住者または来訪者に容易に分類することができる。
本開示の他の態様に係る情報処理プログラムは、コンピュータに、所定の施設にいる第1人物の第1画像と前記所定の施設にいる第2人物の第2画像を含む画像情報を取得し、前記第1人物と前記第2人物の各々を前記施設の居住者または前記施設の来訪者に分類し、これにより、前記第1人物は前記居住者に分類され、前記第2人物は前記来訪者に分類され、前記第1画像と前記第2画像に基づいて、前記第1人物と前記第2人物との間の距離を算出し、算出した前記距離に基づいて、前記第1人物と前記第2人物とが会話しているか否かを判断し、前記第1人物と前記第2人物とが会話していると判断した場合、前記第1人物と前記第2人物とが会話している会話時間を計測し、前記計測した会話時間が所定の時間を超えた場合、前記第1人物が感染症に感染する危険性が高いことを示す感染通知情報を端末装置へ送信する、処理を実行させる。
この構成によれば、居住者と来訪者とが会話している会話時間が計測され、計測された会話時間が所定の時間を超えた場合、居住者が感染症に感染する危険性が高いことを示す感染通知情報が端末装置へ送信されるので、来訪者との会話に起因して施設の居住者が感染症に感染する危険性を推定することができ、居住者が感染症に感染するのを未然に防止することができる。
本開示の他の態様に係る情報処理システムは、所定の施設に設置されたカメラと、情報処理装置と、を備え、前記情報処理装置は、前記カメラから、前記所定にいる第1人物の第1画像と前記所定の施設にいる第2人物の第2画像を含む画像情報を取得し、前記第1人物と前記第2人物の各々を前記施設の居住者または前記施設の来訪者に分類し、これにより、前記第1人物は前記居住者に分類され、前記第2人物は前記来訪者に分類され、前記第1画像と前記第2画像に基づいて、前記第1人物と前記第2人物との間の距離を算出し、算出した前記距離に基づいて、前記第1人物と前記第2人物とが会話しているか否かを判断し、前記第1人物と前記第2人物とが会話していると判断した場合、前記第1人物と前記第2人物とが会話している会話時間を計測し、前記計測した会話時間が所定の時間を超えた場合、前記第1人物が感染症に感染する危険性が高いことを示す感染通知情報を端末装置へ送信する。
この構成によれば、居住者と来訪者とが会話している会話時間が計測され、計測された会話時間が所定の時間を超えた場合、居住者が感染症に感染する危険性が高いことを示す感染通知情報が端末装置へ送信されるので、来訪者との会話に起因して施設の居住者が感染症に感染する危険性を推定することができ、居住者が感染症に感染するのを未然に防止することができる。
以下、図面を使用して本開示の実施の形態を説明する。なお、以下の実施の形態は、本開示を具体化した一例であって、本開示の技術的範囲を限定するものではない。
(実施の形態1)
図1は、本開示の実施の形態1における感染リスク通知システムの構成を示す図である。図1に示す感染リスク通知システムは、情報処理システムの一例であり、感染リスク通知装置1及び端末装置2を備える。
感染リスク通知装置1は、情報処理装置の一例であり、感染症に感染する危険性(感染リスク)を通知する。感染リスク通知装置1は、施設内の所定の空間の壁又は天井に配置される。所定の空間は、例えば、多数の居住者が集まる介護施設のコミュニティルーム又は居住者が生活する居室などの居住者と来訪者とがコミュニケーションを行う可能性がある空間である。また、居住者とは、例えば、介護施設などと契約し、介護施設に住んでいる人物である。また、来訪者とは、施設を一時的に訪れている人物であり、感染症を施設に持ち込む可能性のある人物である。来訪者は、例えば、居住者の家族、居住者の友人、又は、郵便又は荷物の配達員である。
ここで、感染リスク通知装置1は、来訪者が感染症に感染しているか否かは判断せず、来訪者を感染者として取り扱う。人が感染症に罹患すると、感染性を有する期間と症状がある期間とに遷移し、通常、2つの期間は異なる。症状が発症する前に感染性を有しているか否かを判断することは現時点の技術では難しく、感染者と判断できるのは感染性を有してかなりの時間が経った後である。このため、感染者という文言は、症状が現れたり、医師が診断したりするなど何かしらの測定によって感染性を有することが確認された個人に対して用いる。
感染リスク通知装置1は、ネットワークを介して端末装置2と互いに通信可能に接続されている。ネットワークは、例えば、イントラネット又はインターネットである。
端末装置2は、例えば、パーソナルコンピュータ、スマートフォン又はタブレット型コンピュータである。端末装置2は、例えば、居住者がいる施設の管理者又は職員などにより使用される。
感染リスク通知装置1は、カメラ11、メモリ12、プロセッサ13及び通信部14を備える。
カメラ11は、所定の施設内に設置され、所定の施設内を撮影する。カメラ11は、室内を監視するカメラであり、居住者及び来訪者を幅広く検出できるように、天井などに設置され、所定の施設内の画像情報を連続的に取得する。
なお、本実施の形態1において、カメラ11は、感染リスク通知装置1の内部に設けられていてもよいし、感染リスク通知装置1の外部に設けられていてもよい。カメラ11が感染リスク通知装置1の外部に設けられている場合、感染リスク通知装置1は、カメラ11と有線又は無線により通信可能に接続される。
メモリ12は、例えば、半導体メモリであり、画像記憶部121、人物情報記憶部122及び履歴情報記憶部123を備える。プロセッサ13は、画像処理部131、人物分類部132、距離算出部133、顔向き認識部134、会話判断部135、会話時間計測部136、会話時間判断部137、中断時間計測部138、中断判断部139及び感染リスク通知部140を備える。
画像記憶部121は、カメラ11によって撮影された画像情報を記憶する。カメラ11は、所定の施設内を撮影した画像情報を画像記憶部121に記憶する。画像情報は所定の施設にいる第1人物の第1画像と前記所定の施設にいる第2人物の第2画像を含んでもよい。
画像処理部131は、所定の空間内を撮影した画像情報を画像記憶部121から取得する。画像処理部131は、取得した画像情報に画像処理を行い、室内に存在する人の顔、目、鼻、口、顔の形、それらの大きさ、身長、衣類、顔の向き及び室内における人の位置などの人の特徴を抽出する。
画像処理部131は、機械学習又は深層学習を用いて、人の特徴を抽出する。画像処理部131は、例えば、CNN(Convolutional Neural Network)又はSVM(Support Vector Machine)などのニューラルネットワークを用いる。ニューラルネットワークを用いることで、精度よく人の特徴を抽出することができる。なお、CNN又はSVMなどのアルゴリズムは、教師あり学習であるため、教師データの作成が必要となる。このため、画像処理部131は、例えば、教師データを用意しないアルゴリズムとして教師なしのクラスタリングを用いることにより、人の特徴を抽出してもよい。教師なしのアルゴリズムを用いることで、予め教師データを用意する必要が無いため、より容易にシステムに実装することができる。
また、画像処理部131は、画像情報に含まれる人物を示す領域を特定することも可能である。人物を示す領域は、例えば、矩形状である。また、画像処理部131は、人物を示す領域の画像中の位置及び人物を示す領域の重心位置を特定することも可能である。
人物情報記憶部122は、居住者を識別するための識別情報と、居住者の名前と、居住者の特徴とを対応付けた人物情報を予め記憶する。居住者の特徴は、例えば、居住者の顔画像である。
人物分類部132は、画像処理部131によって抽出された人の特徴から、画像情報に含まれる複数の人物の各々を施設の居住者または施設の来訪者に分類する。人物分類部132は、人物情報記憶部122に記憶されている人物情報を参照し、画像処理部131によって抽出された人の特徴に一致する特徴を有する居住者が存在するか否かを判断する。人物分類部132は、画像処理部131によって抽出された人の特徴に一致する特徴を有する居住者が人物情報に存在する場合、画像情報に含まれる当該人物を居住者に分類する。一方、人物分類部132は、画像処理部131によって抽出された人の特徴に一致する特徴を有する居住者が人物情報に存在しない場合、画像情報に含まれる当該人物を来訪者に分類する。つまり、予め人物情報に登録されている人物は、居住者に分類され、人物情報に登録されていない人物は、来訪者に分類される。
例えば、人物分類部132は、画像情報に含まれる人物の顔画像が、予め居住者として登録されている顔画像と一致する場合、当該人物を居住者に分類し、画像情報に含まれる人物の顔画像が、予め居住者として登録されている顔画像と一致しない場合、当該人物を来訪者に分類する。
なお、人物情報は、施設の管理者及び職員を識別する識別情報と、施設の管理者及び職員の特徴とを予め対応付けていてもよい。これにより、施設の管理者又は職員が来訪者として分類されるのを防止することができる。
また、人物情報は、来訪者を識別するための識別情報と、来訪者の特徴とを予め対応付けていてもよい。この場合、人物分類部132は、画像情報に含まれる人物のうち、人物情報記憶部122に来訪者として予め記憶されている人物を来訪者として分類してもよい。これにより、当該人物を居住者または来訪者に確実に分類することができる。
なお、居住者の画像を用いて教師あり学習を行い、ニューラルネットワークモデルを作成してもよく、人物分類部132は、取得した画像情報をニューラルネットワークモデルに入力することで、画像情報に含まれる人を居住者に分類してもよい。また、学習時において、予め居住者の顔と名前とを関連付けてもよい。これにより、分類時に居住者の名前情報も取得することができる。
距離算出部133は、人物分類部132によって分類された居住者と来訪者との間の距離を算出する。距離算出部133は、居住者及び来訪者の位置座標から居住者と来訪者との間の距離を推定する。居住者と来訪者との間の距離を算出するには、例えば、検出した居住者を示す領域の重心位置と来訪者を示す領域の重心位置との間のユークリッド距離を算出すればよい。なお、画像情報に含まれる人物を示す領域の重心位置は、画像処理部131によって検出される。画像情報に含まれる人物が居住者または来訪者とのいずれであるかは、人物分類部132によって分類される。
また、所定の空間内に大きさ及び位置が既知の複数の格子パターンが配置されてもよく、距離算出部133は、画像情報に含まれる格子パターンの大きさ及び位置に基づいて、カメラキャリブレーションを行ってもよい。カメラキャリブレーションを行う事で、カメラ11と人との間の距離に依存せずに、居住者と来訪者との間の距離を精度よく算出することができる。算出された距離情報は会話判断部135に出力される。
顔向き認識部134は、画像情報に基づいて、居住者の顔の向きと、来訪者の顔の向きとを認識する。顔向き認識部134は、画像処理部131によって抽出された人の特徴から、居住者の顔が向いている方向と、来訪者の顔が向いている方向とを特定することができる。
会話判断部135は、距離算出部133によって算出された距離に基づいて、居住者と来訪者とが会話しているか否かを判断する。会話判断部135は、距離が所定の距離以下であり、かつ居住者の顔の向きと来訪者の顔の向きとが対向する場合、居住者と来訪者とが会話していると判断する。なお、所定の距離としては、例えば、1メートル以下を用いればよい。
このように、居住者の顔の向きと来訪者の顔の向きとが対向しているか否かを判断することで、居住者と来訪者の間の距離が近接しているが、会話していない来訪者が誤検出されるのを防止することができる。
会話時間計測部136は、会話判断部135によって居住者と来訪者とが会話していると判断された場合、居住者と来訪者とが会話している会話時間を計測する。
人と人との距離が所定の距離以下に近接するということは、人と人とが、会話をするなどのコミュニケーションを行うために近接したと考えられる。したがって、会話時間計測部136は、居住者と来訪者との距離が所定の距離以下であり、かつ居住者の顔の向きと来訪者の顔の向きとが対向している時間を、居住者と来訪者とが会話している時間として累積し、会話時間を計測する。
会話時間判断部137は、会話時間計測部136によって計測される会話時間が所定の時間を超えたか否かを判断する。なお、所定の時間としては、例えば、20分を用いればよい。すなわち、5分~10分程度の短い時間を、会話時間と比較する所定の時間の対象外とすることで、施設の管理者又は職員の負担を減らすことができる。
中断時間計測部138は、会話時間の計測中に、居住者と来訪者とが会話していないと判断した場合、居住者と来訪者との会話が中断した中断時間を計測する。
中断判断部139は、計測している中断時間が所定の時間を超えたか否かを判断する。
また、会話時間計測部136は、中断時間計測部138によって計測されている中断時間が所定の時間を超える前に、居住者と来訪者との会話が再開した場合、会話時間の計測を再開する。所定の時間は、例えば、5分である。
例えば、来訪者が会話中に電話などにより一旦離席し、5分などの短い時間が経過した後、再び戻ってくる場合も考えられる。このため、会話していた居住者と来訪者との間の距離が、所定の距離より長いと判断された後、所定の時間内に再び所定の距離以下であると判断された場合には、会話時間計測部136は、中断前の会話時間に中断後の会話時間を累積してもよい。こうすることで、会話の途中で短時間の離席があった場合にもトータルの会話時間を精度よく計測することができる。計測された会話時間はメモリ12に蓄積され、逐次更新される。
履歴情報記憶部123は、居住者を識別する識別情報と、居住者がいる場所と、来訪者との会話を開始した時刻を示す会話開始時刻と、来訪者との会話を終了した時刻を示す会話終了時刻と、居住者が会話した来訪者の特徴を示す来訪者情報と、来訪者が感染しているか否かを示す感染情報と、来訪者との会話を開始したことを示す会話開始フラグと、会話時間が所定時間を経過して感染症に感染する危険性が高くなったことを示す感染リスクフラグとを対応付けた履歴情報を記憶する。なお、来訪者情報は、例えば、来訪者の性別、身長及び年代を示し、画像処理部131によって抽出される人の特徴から得られる。
会話時間計測部136は、会話判断部135によって居住者と来訪者とが会話していると判断された場合、居住者を識別する識別情報と、居住者がいる場所と、会話開始時刻と、来訪者情報と、感染情報と、会話開始フラグとを、履歴情報記憶部123に記憶する。また、中断判断部139は、計測している中断時間が所定の時間を超えたと判断した場合、会話を終了した時刻を履歴情報記憶部123に記憶する。
また、通信部14は、来訪者が前記感染症に感染しているか否かを示す感染情報を取得してもよい。感染情報は、例えば、医師、職員又は来訪者自身によって、来訪者を識別する情報とともに入力されて送信される。また、施設の入り口に配置された赤外線カメラが、施設に入る来訪者の体温を測定してもよい。プロセッサ13は、赤外線カメラによって測定された施設に入る来訪者の体温が所定の温度以上であると判断した場合、来訪者の顔画像と、当該来訪者が感染症に感染していることを示す感染情報とをメモリ12に記憶してもよい。
また、会話時間判断部137は、会話時間の判断に用いる所定の時間を、取得した感染情報に応じて変更してもよい。すなわち、会話時間判断部137は、居住者が会話している来訪者の感染情報が感染症に感染していることを示している場合の所定の時間を、居住者が会話している来訪者の感染情報が感染症に感染していないことを示している場合の所定の時間より短くしてもよい。こうすることで、より適切に居住者の感染リスクを評価することができる。
感染リスク通知部140は、計測している会話時間が所定の時間を超えた場合、居住者が感染症に感染する危険性が高いことを示す感染通知情報を生成し、生成した感染通知情報を端末装置2へ送信するように通信部14に指示する。
通信部14は、感染リスク通知部140によって生成された感染通知情報を端末装置2へ送信する。端末装置2は、通信部14によって送信された感染通知情報を受信する。端末装置2は、受信した感染通知情報を表示する。
このように、感染リスク通知部140は、会話時間が所定の時間を超えた場合には、居住者の感染リスクが高まっている可能性があると判断し、通信部14へ感染通知情報を出力する。感染通知情報は、例えば、居住者がいる場所、会話開始時刻、及び居住者の名前などの情報を含む。また、来訪者の特徴も画像情報から抽出しているので、感染リスク通知部140は、来訪者の特徴を示す情報を感染通知情報に含めてもよい。こうすることで、施設の職員又は管理者は、感染リスクが高くなった時点の詳細を後から調べることができる。また、通信部14は、感染通知情報を施設内の職員又は管理者が保有する端末装置2へ送信する。こうすることで、施設内の職員又は管理者は、どの居住者の感染リスクが高いかをリアルタイムに把握することができるだけでなく、感染通知情報を受信した時点で、必要に応じて対策を図ることができる。
なお、本実施の形態1では、会話判断部135は、居住者と来訪者との間の距離が所定の距離以下であり、かつ居住者の顔の向きと来訪者の顔の向きとが対向する場合、居住者と来訪者とが会話していると判断しているが、本開示は特にこれに限定されない。会話判断部135は、居住者の顔の向きと来訪者の顔の向きとが対向しているか否かを判断せずに、居住者と来訪者との間の距離が所定の距離以下である場合、居住者と来訪者とが会話していると判断してもよい。
続いて、本実施の形態1における感染リスク通知装置1の動作について説明する。
図2は、本実施の形態1における感染リスク通知装置の動作を説明するための第1のフローチャートであり、図3は、本実施の形態1における感染リスク通知装置の動作を説明するための第2のフローチャートであり、図4は、本実施の形態1における感染リスク通知装置の動作を説明するための第3のフローチャートである。
まず、ステップS1において、プロセッサ13は、感染リスク通知装置1の電源がオンされているか否かを判断する。ここで、感染リスク通知装置1の電源がオフされたと判断された場合(ステップS1でNO)、処理が終了する。
一方、感染リスク通知装置1の電源がオンされたと判断された場合(ステップS1でYES)、ステップS2において、カメラ11は、施設内の所定の空間を撮影する。カメラ11は、撮影した画像情報を画像記憶部121に記憶する。なお、カメラ11は、動画像を画像記憶部121に記憶する。
次に、ステップS3において、画像処理部131は、画像記憶部121から画像情報を取得する。
次に、ステップS4において、画像処理部131は、画像情報から人物の特徴を抽出する。ここで、人物の特徴とは、例えば、室内に存在する人物の顔、目、鼻、口、顔の形、それらの大きさ、身長、衣類、顔の向き及び室内における人物の位置である。
次に、ステップS5において、人物分類部132は、画像処理部131によって抽出された人の特徴から、画像情報に含まれる人物を施設の居住者または施設の来訪者に分類する。居住者の顔画像は予め人物情報記憶部122に予め登録されている。人物分類部132は、画像処理部131によって抽出された画像情報に含まれる人物の顔部分の画像が、予め登録されている顔画像と一致する場合、当該人物を居住者に分類し、画像処理部131によって抽出された画像情報に含まれる人物の顔画像が、予め登録されている顔画像と一致しない場合、当該人物を来訪者に分類する。
なお、人物分類部132は、事前に機械学習済みのニューラルネットワークモデルを用いて、当該人物を居住者または来訪者に分類してもよい。
次に、ステップS6において、距離算出部133は、人物分類部132によって分類された居住者を選択する。ここで、人物分類部132によって複数の居住者が分類された場合、距離算出部133は、複数の居住者のうちの1の居住者を選択する。また、人物分類部132によって1の居住者が分類された場合、距離算出部133は、1の居住者を選択する。さらに、人物分類部132によって居住者が分類されなかった場合、すなわち、画像情報に居住者が含まれていない場合、ステップS1に処理が戻ってもよい。
次に、ステップS7において、距離算出部133は、選択した居住者と来訪者との間の距離を算出する。ここで、人物分類部132によって複数の来訪者が分類された場合、距離算出部133は、選択した居住者と複数の来訪者のそれぞれとの間の距離を算出する。このとき、距離算出部133は、居住者を示す領域の重心位置と来訪者を示す領域の重心位置との間のユークリッド距離を算出する。
次に、ステップS8において、会話判断部135は、距離算出部133によって算出された距離に基づいて、選択された居住者との距離が所定の距離以下の来訪者がいるか否かを判断する。
ここで、選択された居住者との距離が所定の距離以下の来訪者がいると判断された場合(ステップS8でYES)、ステップS9において、会話判断部135は、選択された居住者との距離が所定の距離以下の来訪者を選択する。このとき、選択された居住者との距離が所定の距離以下の複数の来訪者がいる場合、会話判断部135は、複数の来訪者のうちの1の来訪者を選択する。例えば、会話判断部135は、複数の来訪者のうち、選択された居住者に最も近い1の来訪者を選択する。
次に、ステップS10において、顔向き認識部134は、画像情報に基づいて、選択された居住者の顔の向きと、選択された来訪者の顔の向きとを認識する。居住者の顔の向き及び来訪者の顔の向きは、例えば、ベクトルで表される。
次に、ステップS11において、会話判断部135は、選択された居住者の顔の向きと、選択された来訪者の顔の向きとが対向しているか否かを判断する。なお、居住者の顔の向きと来訪者の顔の向きとが完全に対向する必要はなく、会話判断部135は、居住者の顔の向きを示すベクトルと来訪者の顔の向きを示すベクトルとがなす角度が所定の角度以下である場合、居住者の顔の向きと来訪者の顔の向きとが対向していると判断してもよい。ここで、選択された居住者の顔の向きと、選択された来訪者の顔の向きとが対向していないと判断された場合(ステップS11でNO)、ステップS20に処理が移行する。
一方、選択された居住者の顔の向きと、選択された来訪者の顔の向きとが対向していると判断された場合(ステップS11でYES)、ステップS12において、会話時間計測部136は、履歴情報記憶部123に記憶されている選択された居住者の履歴情報において、選択された居住者に対応する会話開始フラグがオンにされているか否かを判断する。
ここで、選択された居住者に対応する会話開始フラグがオンにされていると判断された場合(ステップS12でYES)、ステップS15に処理が移行する。
一方、選択された居住者に対応する会話開始フラグがオンにされていないと判断された場合(ステップS12でNO)、ステップS13において、会話時間計測部136は、選択された居住者に対応する会話開始フラグをオンにする。
次に、ステップS14において、会話時間計測部136は、現在の時刻を会話開始時刻として履歴情報記憶部123に記憶する。
次に、ステップS15において、会話時間計測部136は、選択された居住者と、選択された来訪者とが会話している会話時間を計測する。会話時間計測部136は、会話開始時刻を履歴情報記憶部123に記憶しているので、会話開始時刻から現在時刻までの時間を算出することにより、選択された居住者と、選択された来訪者とが会話している会話時間を計測することができる。
次に、ステップS16において、会話時間判断部137は、会話時間計測部136によって計測される会話時間が所定の時間を超えたか否かを判断する。ここで、会話時間が所定の時間を超えていないと判断された場合(ステップS16でNO)、ステップS20に処理が移行する。
一方、会話時間が所定の時間を超えたと判断された場合(ステップS16でYES)、ステップS17において、会話時間判断部137は、選択された居住者に対応する感染リスクフラグをオンにする。
次に、ステップS18において、感染リスク通知部140は、選択された居住者が感染症に感染する危険性が高いことを示す感染通知情報を生成する。
次に、ステップS19において、通信部14は、感染リスク通知部140によって生成された感染通知情報を端末装置2へ送信する。端末装置2は、通信部14によって送信された感染通知情報を受信する。端末装置2は、受信した感染通知情報を表示する。
図5は、本実施の形態1において端末装置に表示される感染通知情報の一例を示す図である。
感染通知情報は、来訪者との会話時間が所定の時間を経過した時刻、居住者の名前、居住者のいる場所、及び来訪者との会話時間を含む。図5において、来訪者と会話している居住者の名前は「佐藤さん」であり、居住者がいる場所は「103号室」である。そして、13時01分の時点において、来訪者との会話時間が所定の時間を経過したため、来訪者との会話の開始から所定の時間が経過したことが端末装置2の表示画面に表示されている。なお、上記の感染通知情報に含まれる情報は一例である。
なお、端末装置2は、履歴情報を表示してもよい。施設の職員は、感染リスクに関するより詳細な情報を知りたい場合には、例えば、図5に示す表示画面を指でタップする。表示画面がタップされると、端末装置2は、履歴情報を要求するための要求信号を感染リスク通知装置1へ送信する。感染リスク通知装置1の通信部14は、端末装置2によって送信された要求信号を受信すると、履歴情報記憶部123に記憶されている履歴情報を読み出し、読み出した履歴情報を端末装置2へ送信する。
図6は、本実施の形態1において端末装置に表示される履歴情報の一例を示す図である。
履歴情報は、会話開始時刻、会話終了時刻、居住者の名前、居住者のいる場所、来訪者の特徴及び来訪者の感染情報を含む。図6に示すように、スプレッドシートに履歴情報が集約されることで、履歴情報の管理が容易になる。
図6では、最も直近に起きたイベントがスプレッドシートの最上部に表示されている。図6において、居住者がいる場所は「103号室」であり、来訪者と会話している居住者の名前は「佐藤」であり、会話開始時刻は「12時41分」であることが端末装置2の表示画面に表示されている。また、表示画面には、来訪者の性別、来訪者の身長及び来訪者の年代が、来訪者の特徴として表示されている。なお、来訪者の特徴は、画像情報から抽出した特徴に基づいて推定した推定値であり、実際の実測値ではない。
さらに、表示画面には、来訪者の感染情報が表示されている。感染情報は、居住者が会話している来訪者が感染症に感染しているか否かを示す情報である。来訪者が感染症に感染している場合、丸印で表され、来訪者が感染症に感染していない場合、X印で表される。感染情報は、医師の診断結果又はセンシング情報に基づいて予め付与されている。図6では、来訪者が感染症に感染しているか否かに関わらず、会話時間が表示されているが、本開示は特にこれに限定されず、全ての来訪者について、感染症に感染しているか否かが予め分かるのであれば、感染している来訪者と会話した居住者を感染リスク通知の対象としてもよい。この場合、感染情報の欄は不要となる。なお、上記の履歴情報に含まれる情報は一例である。
図4に戻って、次に、ステップS20において、会話判断部135は、選択された居住者との距離が所定の距離以下の全ての来訪者を選択したか否かを判断する。すなわち、選択された居住者との距離が所定の距離以下の複数の来訪者がいる場合、会話判断部135は、複数の来訪者のうちの選択されていない来訪者が存在するか否かを判断する。ここで、選択された居住者との距離が所定の距離以下の全ての来訪者を選択していないと判断された場合(ステップS20でNO)、ステップS9に処理が戻る。
なお、ステップS9において、会話判断部135は、選択された居住者との距離が所定の距離以下の前回選択しなかった来訪者を選択する。例えば、会話判断部135は、複数の来訪者のうち、選択された居住者に近い順に来訪者を選択する。
一方、選択された居住者との距離が所定の距離以下の全ての来訪者を選択したと判断された場合(ステップS20でYES)、ステップS21において、会話判断部135は、人物分類部132によって分類された全ての居住者を選択したか否かを判断する。すなわち、人物分類部132によって複数の居住者が分類された場合、会話判断部135は、複数の居住者のうちの選択されていない居住者が存在するか否かを判断する。ここで、分類された全ての居住者を選択していないと判断された場合(ステップS21でNO)、ステップS6に処理が戻る。
一方、分類された全ての居住者を選択したと判断された場合(ステップS21でYES)、ステップS1に処理が戻る。
また、ステップS8で居住者との距離が所定の距離以下の来訪者がいないと判断された場合(ステップS8でNO)、ステップS22において、中断判断部139は、履歴情報記憶部123に記憶されている選択された居住者の履歴情報において、選択された居住者に対応する会話開始フラグがオンにされているか否かを判断する。
ここで、選択された居住者に対応する会話開始フラグがオンにされていないと判断された場合(ステップS22でNO)、ステップS21に処理が移行する。
一方、選択された居住者に対応する会話開始フラグがオンにされていると判断された場合(ステップS22でYES)、ステップS23において、中断時間計測部138は、居住者と来訪者との会話が中断した中断時間を計測する。なお、中断時間計測部138は、中断時間の計測を開始する際に、中断時間の計測を開始した時刻を示す中断開始時刻をメモリ12に記憶する。中断時間計測部138は、中断開始時刻をメモリ12に記憶しているので、中断開始時刻から現在時刻までの時間を算出することにより、居住者と来訪者との会話が中断している中断時間を計測することができる。
次に、ステップS24において、中断判断部139は、計測している中断時間が所定の時間を超えたか否かを判断する。ここで、計測している中断時間が所定の時間を超えていないと判断された場合(ステップS24でNO)、ステップS21に処理が移行する。
一方、計測している中断時間が所定の時間を超えたと判断された場合(ステップS24でYES)、ステップS25において、中断判断部139は、感染リスクフラグがオンにされているか否かを判断する。ここで、感染リスクフラグがオンにされていないと判断された場合、すなわち、感染リスクフラグがオフにされている場合(ステップS25でNO)、ステップS27に処理が移行する。
一方、感染リスクフラグがオンにされていると判断された場合(ステップS25でYES)、ステップS26において、中断判断部139は、中断開始時刻を会話終了時刻として履歴情報記憶部123に記憶する。
次に、ステップS27において、中断判断部139は、選択された居住者の履歴情報において、選択された居住者に対応する感染リスクフラグをオフにする。
次に、ステップS28において、中断判断部139は、選択された居住者の履歴情報において、選択された居住者に対応する会話開始フラグをオフにする。そして、ステップS28の処理の後、ステップS21に処理が移行する。
このように、居住者と来訪者とが会話している会話時間が計測され、計測された会話時間が所定の時間を超えた場合、居住者が感染症に感染する危険性が高いことを示す感染通知情報が端末装置2へ送信されるので、来訪者との会話に起因して施設の居住者が感染症に感染する危険性を推定することができ、居住者が感染症に感染するのを未然に防止することができる。
(実施の形態2)
実施の形態1では、感染リスク通知装置は、カメラを備えているが、実施の形態2では、感染リスク通知装置は、カメラを備えておらず、カメラと互いに通信可能に接続されている。
図7は、本開示の実施の形態2における感染リスク通知システムの構成を示す図である。図7に示す感染リスク通知システムは、感染リスク通知装置1A、端末装置2及びカメラ3を備える。なお、本実施の形態2において、実施の形態1と同じ構成については、同じ符号を付し、詳細な説明を省略する。
カメラ3は、施設の所定の空間内の天井又は壁に設置される。カメラ3は、感染リスク通知装置1Aとネットワークを介して互いに通信可能に接続されている。カメラ3は、撮影部31、メモリ32、プロセッサ33及び通信部34を備える。
撮影部31は、例えば撮像素子であり、所定の空間内を撮影し、撮影した画像情報をメモリ32へ出力する。
メモリ32は、例えば、半導体メモリであり、画像記憶部321及び人物情報記憶部322を備える。画像記憶部321は、撮影部31によって撮影された画像情報を記憶する。撮影部31は、所定の空間内を撮影した画像情報を画像記憶部321に記憶する。
プロセッサ33は、画像処理部331、人物分類部332、距離算出部333、顔向き認識部334及び会話判断部335を備える。
画像処理部331は、所定の空間内を撮影した画像情報を画像記憶部321から取得する。画像処理部331は、取得した画像情報に画像処理を行い、室内に存在する人の顔、目、鼻、口、顔の形、それらの大きさ、身長、衣類、顔の向き及び室内における人の位置などの人の特徴を抽出する。画像処理部331は、機械学習又は深層学習を用いて、人の特徴を抽出する。
なお、画像処理部331の機能は、実施の形態1の画像処理部131の機能と同じである。
人物情報記憶部322は、居住者を識別するための識別情報と、居住者の名前と、居住者の特徴とを対応付けた人物情報を予め記憶する。居住者の特徴は、例えば、居住者の顔画像である。
人物分類部332は、画像処理部331によって抽出された人の特徴から、画像情報に含まれる複数の人物の各々を施設の居住者または施設の来訪者に分類する。なお、人物分類部332の機能は、実施の形態1の人物分類部132の機能と同じである。
距離算出部333は、人物分類部332によって分類された居住者と来訪者との間の距離を算出する。なお、距離算出部333の機能は、実施の形態1の距離算出部133の機能と同じである。
顔向き認識部334は、画像情報に基づいて、居住者の顔の向きと、来訪者の顔の向きとを認識する。顔向き認識部334は、画像処理部331によって抽出された人の特徴から、居住者の顔が向いている方向と、来訪者の顔が向いている方向とを特定することができる。なお、顔向き認識部334の機能は、実施の形態1の顔向き認識部134の機能と同じである。
会話判断部335は、距離算出部333によって算出された距離に基づいて、居住者と来訪者とが会話しているか否かを判断する。会話判断部335は、距離が所定の距離以下であり、かつ居住者の顔の向きと来訪者の顔の向きとが対向する場合、居住者と来訪者とが会話していると判断する。なお、所定の距離としては、例えば、1メートル以下を用いればよい。会話判断部335の機能は、実施の形態1の会話判断部135の機能と同じである。
会話判断部335は、居住者と来訪者とが会話していると判断した場合、会話フラグ情報を生成し、生成した会話フラグ情報を通信部34へ出力する。会話フラグ情報は、例えば、来訪者と会話している居住者を識別するための名前及び番号などの識別情報と、居住者のいる場所と、現在時刻と、来訪者の特徴を示す来訪者情報とを含む。来訪者情報は、例えば、来訪者の性別、身長及び年代を示し、画像処理部331によって抽出される人の特徴から得られる。また、メモリ32は、カメラ3が設置されている場所を予め記憶している。会話判断部335は、カメラ3が設置されている場所を居住者のいる場所として会話フラグ情報に含める。
通信部34は、会話判断部335から出力された会話フラグ情報を感染リスク通知装置1Aへ送信する。
感染リスク通知装置1Aは、居住者が感染症に感染する危険性を通知する。感染リスク通知装置1Aが配置される場所は特に限定されない。感染リスク通知装置1Aは、例えば、サーバであってもよい。感染リスク通知装置1Aは、ネットワークを介して端末装置2及びカメラ3と互いに通信可能に接続されている。
感染リスク通知装置1Aは、メモリ12A、プロセッサ13A及び通信部14Aを備える。
メモリ12Aは、例えば、半導体メモリであり、履歴情報記憶部123及び居住者情報記憶部124を備える。プロセッサ13Aは、会話時間計測部136A、会話時間判断部137、中断時間計測部138、中断判断部139及び感染リスク通知部140を備える。
通信部14Aは、カメラ3によって送信された会話フラグ情報を受信する。通信部14Aは、感染リスク通知部140によって生成された感染通知情報を端末装置2へ送信する。
居住者情報記憶部124は、施設に入居している居住者を識別するための名前及び番号などの識別情報を記憶する。
会話時間計測部136Aは、通信部14Aによって会話フラグ情報が受信された場合、居住者と来訪者とが会話している会話時間を計測する。会話時間計測部136Aは、居住者と来訪者との距離が所定の距離以下であり、かつ居住者の顔の向きと来訪者の顔の向きとが対向している場合に送信された会話フラグ情報が受信される時間を、居住者と来訪者とが会話している時間として累積し、会話時間を計測する。
続いて、本実施の形態2における感染リスク通知装置1A及びカメラ3の動作について説明する。
図8は、本実施の形態2におけるカメラの動作を説明するための第1のフローチャートであり、図9は、本実施の形態2におけるカメラの動作を説明するための第2のフローチャートである。
まず、ステップS41において、プロセッサ33は、カメラ3の電源がオンされているか否かを判断する。ここで、カメラ3の電源がオフされたと判断された場合(ステップS41でNO)、処理が終了する。
一方、カメラ3の電源がオンされたと判断された場合(ステップS41でYES)、ステップS42において、撮影部31は、所定の空間内を撮影する。撮影部31は、撮影した画像情報を画像記憶部321に記憶する。なお、撮影部31は、動画像を画像記憶部321に記憶する。
次に、ステップS43において、画像処理部331は、画像記憶部321から画像情報を取得する。
次に、ステップS44において、画像処理部331は、画像情報から人物の特徴を抽出する。ここで、人物の特徴とは、例えば、室内に存在する人物の顔、目、鼻、口、顔の形、それらの大きさ、身長、衣類、顔の向き及び室内における人物の位置である。
次に、ステップS45において、人物分類部332は、画像処理部331によって抽出された人の特徴から、画像情報に含まれる人物を施設の居住者または施設の来訪者に分類する。居住者の顔画像は予め人物情報記憶部322に予め登録されている。人物分類部332は、画像処理部331によって抽出された画像情報に含まれる人物の顔部分の画像が、予め登録されている顔画像と一致する場合、当該人物を居住者に分類し、画像処理部331によって抽出された画像情報に含まれる人物の顔画像が、予め登録されている顔画像と一致しない場合、当該人物を来訪者に分類する。
なお、人物分類部332は、事前に機械学習済みのニューラルネットワークモデルを用いて、当該人物を居住者または来訪者に分類してもよい。
次に、ステップS46において、距離算出部333は、人物分類部332によって分類された居住者を選択する。ここで、人物分類部332によって複数の居住者が分類された場合、距離算出部333は、複数の居住者のうちの1の居住者を選択する。また、人物分類部332によって1の居住者が分類された場合、距離算出部333は、1の居住者を選択する。さらに、人物分類部332によって居住者が分類されなかった場合、すなわち、画像情報に居住者が含まれていない場合、ステップS41に処理が戻ってもよい。
次に、ステップS47において、距離算出部333は、選択した居住者と来訪者との間の距離を算出する。ここで、人物分類部332によって複数の来訪者が分類された場合、距離算出部333は、選択した居住者と複数の来訪者のそれぞれとの間の距離を算出する。このとき、距離算出部333は、居住者を示す領域の重心位置と来訪者を示す領域の重心位置との間のユークリッド距離を算出する。
次に、ステップS48において、会話判断部335は、距離算出部333によって算出された距離に基づいて、選択された居住者との距離が所定の距離以下の来訪者がいるか否かを判断する。
ここで、選択された居住者との距離が所定の距離以下の来訪者がいないと判断された場合(ステップS48でNO)、ステップS55へ処理が移行する。
一方、選択された居住者との距離が所定の距離以下の来訪者がいると判断された場合(ステップS48でYES)、ステップS49において、会話判断部335は、選択された居住者との距離が所定の距離以下の来訪者を選択する。このとき、選択された居住者との距離が所定の距離以下の複数の来訪者がいる場合、会話判断部335は、複数の来訪者のうちの1の来訪者を選択する。例えば、会話判断部335は、複数の来訪者のうち、選択された居住者に最も近い1の来訪者を選択する。
次に、ステップS50において、顔向き認識部334は、画像情報に基づいて、選択された居住者の顔の向きと、選択された来訪者の顔の向きとを認識する。居住者の顔の向き及び来訪者の顔の向きは、例えば、ベクトルで表される。
次に、ステップS51において、会話判断部335は、選択された居住者の顔の向きと、選択された来訪者の顔の向きとが対向しているか否かを判断する。なお、居住者の顔の向きと来訪者の顔の向きとが完全に対向する必要はなく、会話判断部335は、居住者の顔の向きを示すベクトルと来訪者の顔の向きを示すベクトルとがなす角度が所定の角度以下である場合、居住者の顔の向きと来訪者の顔の向きとが対向していると判断してもよい。ここで、選択された居住者の顔の向きと、選択された来訪者の顔の向きとが対向していないと判断された場合(ステップS51でNO)、ステップS54に処理が移行する。
一方、選択された居住者の顔の向きと、選択された来訪者の顔の向きとが対向していると判断された場合(ステップS51でYES)、ステップS52において、会話判断部335は、会話フラグ情報を生成する。会話フラグ情報は、例えば、来訪者と会話している居住者を識別するための名前及び番号などの識別情報と、居住者のいる場所と、現在時刻と、来訪者の特徴を示す来訪者情報とを含む。会話判断部335は、生成した会話フラグ情報を通信部34へ出力する。
次に、ステップS53において、通信部34は、会話判断部335によって生成された会話フラグ情報を感染リスク通知装置1Aへ送信する。
次に、ステップS54において、会話判断部335は、選択された居住者との距離が所定の距離以下の全ての来訪者を選択したか否かを判断する。すなわち、選択された居住者との距離が所定の距離以下の複数の来訪者がいる場合、会話判断部335は、複数の来訪者のうちの選択されていない来訪者が存在するか否かを判断する。ここで、選択された居住者との距離が所定の距離以下の全ての来訪者を選択していないと判断された場合(ステップS54でNO)、ステップS49に処理が戻る。
なお、ステップS49において、会話判断部335は、選択された居住者との距離が所定の距離以下の前回選択しなかった来訪者を選択する。例えば、会話判断部335は、複数の来訪者のうち、選択された居住者に近い順に来訪者を選択する。
一方、選択された居住者との距離が所定の距離以下の全ての来訪者を選択したと判断された場合(ステップS54でYES)、ステップS55において、会話判断部335は、人物分類部332によって分類された全ての居住者を選択したか否かを判断する。すなわち、人物分類部332によって複数の居住者が分類された場合、会話判断部335は、複数の居住者のうちの選択されていない居住者が存在するか否かを判断する。ここで、分類された全ての居住者を選択していないと判断された場合(ステップS55でNO)、ステップS46に処理が戻る。
一方、分類された全ての居住者を選択したと判断された場合(ステップS55でYES)、ステップS41に処理が戻る。
図10は、本実施の形態2における感染リスク通知装置の動作を説明するための第1のフローチャートであり、図11は、本実施の形態2における感染リスク通知装置の動作を説明するための第2のフローチャートである。
まず、ステップS61において、プロセッサ13Aは、感染リスク通知装置1Aの電源がオンされているか否かを判断する。ここで、感染リスク通知装置1Aの電源がオフされたと判断された場合(ステップS61でNO)、処理が終了する。
一方、感染リスク通知装置1Aの電源がオンされたと判断された場合(ステップS61でYES)、ステップS62において、会話時間計測部136Aは、居住者情報記憶部124に記憶されている複数の居住者の中から、1の居住者を選択する。居住者情報記憶部124は、施設に入居している複数の居住者に関する情報を記憶している。なお、居住者を選択する方法については、特に限定されない。例えば、会話時間計測部136Aは、居住者情報記憶部124に記憶されている複数の居住者の一覧表の上位から順に選択する。
次に、ステップS63において、通信部14Aは、選択された居住者の識別情報を含む会話フラグ情報を受信したか否かを判断する。
ここで、選択された居住者の識別情報を含む会話フラグ情報を受信したと判断された場合(ステップS63でYES)、ステップS64において、会話時間計測部136Aは、履歴情報記憶部123に記憶されている選択された居住者の履歴情報において、選択された居住者に対応する会話開始フラグがオンにされているか否かを判断する。
ここで、選択された居住者に対応する会話開始フラグがオンにされていると判断された場合(ステップS64でYES)、ステップS67に処理が移行する。
一方、選択された居住者に対応する会話開始フラグがオンにされていないと判断された場合(ステップS64でNO)、ステップS65において、会話時間計測部136Aは、選択された居住者に対応する会話開始フラグをオンにする。
次に、ステップS66において、会話時間計測部136Aは、現在の時刻を会話開始時刻として履歴情報記憶部123に記憶する。
次に、ステップS67において、会話時間計測部136Aは、選択された居住者と、来訪者とが会話している会話時間を計測する。会話時間計測部136Aは、会話開始時刻を履歴情報記憶部123に記憶しているので、会話開始時刻から現在時刻までの時間を算出することにより、選択された居住者と、来訪者とが会話している会話時間を計測することができる。
なお、図11に示すステップS68~ステップS71の処理は、図3及び図4に示すステップS16~ステップS19の処理と同じである。
次に、ステップS72において、会話時間計測部136Aは、居住者情報記憶部124に記憶されている全ての居住者を選択したか否かを判断する。すなわち、会話時間計測部136Aは、居住者情報記憶部124に記憶されている複数の居住者のうちの選択されていない居住者が存在するか否かを判断する。ここで、居住者情報記憶部124に記憶されている全ての居住者を選択していないと判断された場合(ステップS72でNO)、ステップS62に処理が戻る。
一方、居住者情報記憶部124に記憶されている全ての居住者を選択したと判断された場合(ステップS72でYES)、ステップS61に処理が戻る。
また、ステップS63で選択された居住者の識別情報を含む会話フラグ情報を受信していないと判断された場合(ステップS63でNO)、ステップS73において、中断判断部139は、履歴情報記憶部123に記憶されている選択された居住者の履歴情報において、選択された居住者に対応する会話開始フラグがオンにされているか否かを判断する。
ここで、選択された居住者に対応する会話開始フラグがオンにされていないと判断された場合(ステップS73でNO)、ステップS72に処理が移行する。
一方、選択された居住者に対応する会話開始フラグがオンにされていると判断された場合(ステップS73でYES)、ステップS74において、中断時間計測部138は、居住者と来訪者との会話が中断した中断時間を計測する。なお、中断時間計測部138は、中断時間の計測を開始する際に、中断時間の計測を開始した時刻を示す中断開始時刻をメモリ12に記憶する。中断時間計測部138は、中断開始時刻をメモリ12に記憶しているので、中断開始時刻から現在時刻までの時間を算出することにより、居住者と来訪者との会話が中断している中断時間を計測することができる。
次に、ステップS75において、中断判断部139は、計測している中断時間が所定の時間を超えたか否かを判断する。ここで、計測している中断時間が所定の時間を超えていないと判断された場合(ステップS75でNO)、ステップS72に処理が移行する。
一方、計測している中断時間が所定の時間を超えたと判断された場合(ステップS75でYES)、ステップS76において、中断判断部139は、感染リスクフラグがオンにされているか否かを判断する。
なお、図10及び図11に示すステップS76~ステップS79の処理は、図3に示すステップS25~ステップS28の処理と同じである。そして、ステップS79の処理の後、ステップS72に処理が移行する。
このように、カメラ3によって、居住者と来訪者とが会話していることが検出され、感染リスク通知装置1Aによって、居住者と来訪者とが会話している時間が計測され、居住者が感染症に感染する危険性が高くなった場合に、居住者が感染症に感染する危険性が高いことが端末装置2に通知される。これにより、感染リスク通知システムの構成をより簡素化することができ、感染リスク通知システムのコストを抑えることができる。
以上、本開示の装置について、実施の形態に基づいて説明したが、本開示は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本開示の一つまたは複数の態様の範囲内に含まれてもよい。
なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
本開示の実施の形態に係る装置の機能の一部又は全ては典型的には集積回路であるLSI(Large Scale Integration)として実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続及び/または設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
また、本開示の実施の形態に係る装置の機能の一部又は全てを、CPU等のプロセッサがプログラムを実行することにより実現してもよい。
また、上記で用いた数字は、全て本開示を具体的に説明するために例示するものであり、本開示は例示された数字に制限されない。
また、上記フローチャートに示す各ステップが実行される順序は、本開示を具体的に説明するために例示するためのものであり、同様の効果が得られる範囲で上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。
さらに、本開示の主旨を逸脱しない限り、本開示の各実施の形態に対して当業者が思いつく範囲内の変更を施した各種変形例も本開示に含まれる。
例えば、本開示には、下記の情報処理方法も含まれる。
コンピュータが、
所定の施設にいる第1人物の第1画像と前記所定の施設にいる第2人物の第2画像を含む画像情報を取得し、
前記第1人物と前記第2人物の各々を前記施設の居住者または前記施設の来訪者に分類し、これにより、前記第1人物は前記居住者に分類され、前記第2人物は前記来訪者に分類され、
前記第1画像と前記第2画像に基づいて、前記第1人物と前記第2人物との間の距離を算出し、
前記距離が所定の距離以下である時間を計測し、
前記計測した時間が所定の時間を超えた場合、前記第1人物が感染症に感染する危険性が高いことを示す感染通知情報を端末装置へ送信する、
情報処理方法。
本開示に係る情報処理方法、情報処理プログラム及び情報処理システムは、来訪者との会話に起因して施設の居住者が感染症に感染する危険性を推定することができ、感染症に感染する危険性を通知する情報処理方法、情報処理プログラム及び情報処理システムとして有用である。
1,1A 感染リスク通知装置
2 端末装置
3,11 カメラ
12,12A メモリ
13,13A プロセッサ
14,14A 通信部
31 撮影部
32 メモリ
33 プロセッサ
34 通信部
121 画像記憶部
122 人物情報記憶部
123 履歴情報記憶部
124 居住者情報記憶部
131 画像処理部
132 人物分類部
133 距離算出部
134 顔向き認識部
135 会話判断部
136,136A 会話時間計測部
137 会話時間判断部
138 中断時間計測部
139 中断判断部
140 感染リスク通知部
321 画像記憶部
322 人物情報記憶部
331 画像処理部
332 人物分類部
333 距離算出部
334 顔向き認識部
335 会話判断部

Claims (8)

  1. コンピュータが、
    所定の施設にいる第1人物の第1画像と前記所定の施設にいる第2人物の第2画像を含む画像情報を取得し、
    前記第1人物と前記第2人物の各々を前記施設の居住者または前記施設の来訪者に分類し、これにより、前記第1人物は前記居住者に分類され、前記第2人物は前記来訪者に分類され、
    前記第1画像と前記第2画像に基づいて、前記第1人物と前記第2人物との間の距離を算出し、
    算出した前記距離に基づいて、前記第1人物と前記第2人物とが会話しているか否かを判断し、
    前記第1人物と前記第2人物とが会話していると判断した場合、前記第1人物と前記第2人物とが会話している会話時間を計測し、
    前記計測した会話時間が所定の時間を超えた場合、前記第1人物が感染症に感染する危険性が高いことを示す感染通知情報を端末装置へ送信する、
    情報処理方法。
  2. さらに、前記第2人物が前記感染症に感染しているか否かを示す感染情報を取得し、
    さらに、取得した前記感染情報に応じて前記所定の時間を変更する、
    請求項1記載の情報処理方法。
  3. さらに、前記会話時間の計測中に、前記第1人物と前記第2人物とが会話していないと判断した場合、前記第1人物と前記第2人物との会話が中断した中断時間を計測し、
    前記会話時間の計測は、計測している前記中断時間が所定の時間を超える前に、前記第1人物と前記第2人物との会話が再開した場合、前記会話時間の計測を再開する、
    請求項1又は2記載の情報処理方法。
  4. 前記判断は、前記距離が所定の距離以下である場合、前記第1人物と前記第2人物とが会話していると判断する、
    請求項1~3のいずれか1項に記載の情報処理方法。
  5. さらに、前記画像情報に基づいて、前記第1人物の顔の向きと、前記第2人物の顔の向きとを認識し、
    前記判断は、前記距離が所定の距離以下であり、かつ前記第1人物の顔の向きと前記第2人物の顔の向きとが対向する場合、前記第1人物と前記第2人物とが会話していると判断する、
    請求項4記載の情報処理方法。
  6. 前記第1人物の顔画像が予め登録されており、
    前記画像情報に含まれる第1人物の顔画像が、前記予め登録された顔画像と一致する、
    請求項1~5のいずれか1項に記載の情報処理方法。
  7. コンピュータに、
    所定の施設にいる第1人物の第1画像と前記所定の施設にいる第2人物の第2画像を含む画像情報を取得し、
    前記第1人物と前記第2人物の各々を前記施設の居住者または前記施設の来訪者に分類し、これにより、前記第1人物は前記居住者に分類され、前記第2人物は前記来訪者に分類され、
    前記第1画像と前記第2画像に基づいて、前記第1人物と前記第2人物との間の距離を算出し、
    算出した前記距離に基づいて、前記第1人物と前記第2人物とが会話しているか否かを判断し、
    前記第1人物と前記第2人物とが会話していると判断した場合、前記第1人物と前記第2人物とが会話している会話時間を計測し、
    前記計測した会話時間が所定の時間を超えた場合、前記第1人物が感染症に感染する危険性が高いことを示す感染通知情報を端末装置へ送信する、
    処理を実行させる情報処理プログラム。
  8. 所定の施設に設置されたカメラと、
    情報処理装置と、
    を備え、
    前記情報処理装置は、
    前記カメラから、前記所定にいる第1人物の第1画像と前記所定の施設にいる第2人物の第2画像を含む画像情報を取得し、
    前記第1人物と前記第2人物の各々を前記施設の居住者または前記施設の来訪者に分類し、これにより、前記第1人物は前記居住者に分類され、前記第2人物は前記来訪者に分類され、
    前記第1画像と前記第2画像に基づいて、前記第1人物と前記第2人物との間の距離を算出し、
    算出した前記距離に基づいて、前記第1人物と前記第2人物とが会話しているか否かを判断し、
    前記第1人物と前記第2人物とが会話していると判断した場合、前記第1人物と前記第2人物とが会話している会話時間を計測し、
    前記計測した会話時間が所定の時間を超えた場合、前記第1人物が感染症に感染する危険性が高いことを示す感染通知情報を端末装置へ送信する、
    情報処理システム。
JP2020525380A 2018-06-14 2019-05-21 情報処理方法、情報処理プログラム及び情報処理システム Active JP7296559B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018113438 2018-06-14
JP2018113438 2018-06-14
PCT/JP2019/020000 WO2019239813A1 (ja) 2018-06-14 2019-05-21 情報処理方法、情報処理プログラム及び情報処理システム

Publications (2)

Publication Number Publication Date
JPWO2019239813A1 JPWO2019239813A1 (ja) 2021-06-24
JP7296559B2 true JP7296559B2 (ja) 2023-06-23

Family

ID=68842505

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020525380A Active JP7296559B2 (ja) 2018-06-14 2019-05-21 情報処理方法、情報処理プログラム及び情報処理システム

Country Status (4)

Country Link
US (2) US11935301B2 (ja)
JP (1) JP7296559B2 (ja)
CN (1) CN111742376B (ja)
WO (1) WO2019239813A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11443549B2 (en) * 2019-07-09 2022-09-13 Josh Lehman Apparatus, system, and method of providing a facial and biometric recognition system
CN111260716A (zh) * 2020-02-28 2020-06-09 北京三快在线科技有限公司 商户座位间隔的确定方法、装置、服务器及存储介质
CN111281361A (zh) * 2020-03-09 2020-06-16 康瑞健康管理(杭州)有限公司 基于大数据的学生健康监测***
WO2021197561A1 (de) * 2020-04-03 2021-10-07 Christian Eckler Verfahren und abstandserfassungseinrichtung zur einhaltung von abständen und aufzeichnung entstandener personen-nah-kontakte
JP6906816B1 (ja) * 2020-04-25 2021-07-21 Assest株式会社 伝染病感染リスク判定プログラム
JP7452644B2 (ja) 2020-06-05 2024-03-19 日本電気株式会社 画像処理装置、画像処理方法、及びプログラム
US20230274553A1 (en) * 2020-06-05 2023-08-31 Nec Corporation Image processing apparatus, image processing method, and non-transitory storage medium
US20210391089A1 (en) * 2020-06-15 2021-12-16 Honeywell International Inc. Methods and systems for reducing a risk of spread of an illness in a building
CN113819590B (zh) * 2020-06-19 2023-03-24 青岛海尔空调器有限总公司 空调器的体温检测控制方法与空调器
US20210398689A1 (en) * 2020-06-23 2021-12-23 Corsight.Ai Autonomous mapping and monitoring potential infection events
JP7416253B2 (ja) 2020-07-08 2024-01-17 日本電気株式会社 会話監視装置、制御方法、及びプログラム
WO2022009339A1 (ja) * 2020-07-08 2022-01-13 日本電気株式会社 会話監視装置、制御方法、及びコンピュータ可読媒体
JP7476965B2 (ja) 2020-07-08 2024-05-01 日本電気株式会社 通知制御装置、制御方法、及びプログラム
CN112135261A (zh) * 2020-09-23 2020-12-25 维沃移动通信有限公司 潜在感染者确定方法、装置、电子设备和存储介质
WO2022107215A1 (ja) * 2020-11-17 2022-05-27 日本電気株式会社 リスク情報生成装置、リスク情報生成方法、及びプログラム
JPWO2022114046A1 (ja) * 2020-11-26 2022-06-02
US20240038403A1 (en) * 2020-12-14 2024-02-01 Nec Corporation Image display apparatus, image display system, image display method, and non-transitory computer readable medium
IT202000031994A1 (it) * 2020-12-22 2022-06-22 Goatai S R L Metodo implementato mediante computer per la stima automatica del rischio di contagio da virus in funzione delle distanze interpersonali e relativo sistema
US20240047073A1 (en) * 2020-12-22 2024-02-08 Nec Corporation Risk display apparatus, risk display method, and non-transitory computer readable medium
US20220208393A1 (en) * 2020-12-29 2022-06-30 Cortica Ltd. Monitoring potential droplets transmission bases infection events
JP7505767B2 (ja) * 2021-06-09 2024-06-25 Necプラットフォームズ株式会社 誘導情報生成装置、制御方法、及びプログラム
WO2023013125A1 (en) * 2021-08-05 2023-02-09 Nec Corporation Method and apparatus for cancelling anonymization for an area including a target
WO2023067760A1 (ja) * 2021-10-21 2023-04-27 日本電気株式会社 感染予防システム、感染予防方法、及び、感染予防プログラムが格納された非一時的なコンピュータ可読媒体

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130318027A1 (en) 2011-11-20 2013-11-28 Gal Almogy System and method to enable detection of viral infection by users of electronic communication devices
JP2014155159A (ja) 2013-02-13 2014-08-25 Nec Corp 情報処理システム、情報処理方法及びプログラム
JP2017001803A (ja) 2015-06-09 2017-01-05 東芝エレベータ株式会社 エレベータの制御装置
JP2017009825A (ja) 2015-06-23 2017-01-12 トヨタ自動車株式会社 会話状況分析装置および会話状況分析方法
JP2017130061A (ja) 2016-01-20 2017-07-27 キヤノン株式会社 画像処理システム、画像処理方法およびプログラム
US20170352119A1 (en) 2016-06-03 2017-12-07 Blyncsy, Inc. Tracking proximity relationships and uses thereof

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9141762B2 (en) * 2010-12-15 2015-09-22 Michal Lev System and method for analyzing and controlling epidemics
JP5848674B2 (ja) 2012-06-25 2016-01-27 株式会社 日立産業制御ソリューションズ 空調制御支援装置、空調制御支援方法およびそのプログラム
US9729833B1 (en) * 2014-01-17 2017-08-08 Cerner Innovation, Inc. Method and system for determining whether an individual takes appropriate measures to prevent the spread of healthcare-associated infections along with centralized monitoring
JP6182170B2 (ja) * 2015-03-19 2017-08-16 ソフトバンク株式会社 セキュリティシステム
CA2936876A1 (en) * 2015-07-22 2017-01-22 Radicalogic Technologies, Inc. Dba Rl Solutions Systems and methods for near-real or real-time contact tracing
CN105740615B (zh) * 2016-01-28 2018-10-16 中山大学 利用手机轨迹追踪传染源和预测传染病流行趋势的方法
KR101779705B1 (ko) * 2016-03-16 2017-09-20 한양대학교 산학협력단 사물인터넷기반 신종 감염병 예측 대응 플랫폼 시스템

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130318027A1 (en) 2011-11-20 2013-11-28 Gal Almogy System and method to enable detection of viral infection by users of electronic communication devices
JP2014155159A (ja) 2013-02-13 2014-08-25 Nec Corp 情報処理システム、情報処理方法及びプログラム
JP2017001803A (ja) 2015-06-09 2017-01-05 東芝エレベータ株式会社 エレベータの制御装置
JP2017009825A (ja) 2015-06-23 2017-01-12 トヨタ自動車株式会社 会話状況分析装置および会話状況分析方法
JP2017130061A (ja) 2016-01-20 2017-07-27 キヤノン株式会社 画像処理システム、画像処理方法およびプログラム
US20170352119A1 (en) 2016-06-03 2017-12-07 Blyncsy, Inc. Tracking proximity relationships and uses thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
大矢 隆弘,面会履歴を利用したLifeLog情報の提示,ヒューマンインタフェース学会研究報告集,日本,特定非営利活動法人ヒューマンインタフェース学会,2007年11月21日,Vol.9 No.4,p.43-46,ISSN 1334-7270

Also Published As

Publication number Publication date
CN111742376A (zh) 2020-10-02
WO2019239813A1 (ja) 2019-12-19
US20200394419A1 (en) 2020-12-17
US11935301B2 (en) 2024-03-19
JPWO2019239813A1 (ja) 2021-06-24
CN111742376B (zh) 2024-06-25
US20240185609A1 (en) 2024-06-06

Similar Documents

Publication Publication Date Title
JP7296559B2 (ja) 情報処理方法、情報処理プログラム及び情報処理システム
Deep et al. A survey on anomalous behavior detection for elderly care using dense-sensing networks
JP6666488B2 (ja) 画像抽出装置
JP7361277B2 (ja) 飛沫到達範囲制御システム及び飛沫到達範囲制御方法
JP2020067939A (ja) 感染リスク特定システム、情報端末、及び、感染リスク特定方法
EP3689236A1 (en) Posture estimation device, behavior estimation device, posture estimation program, and posture estimation method
JP2022168070A (ja) 人物検出システム
JP7018400B2 (ja) 視線の妨害に基づく医療プロトコル遵守のモニタリング
JP6589994B2 (ja) 行動検知装置、行動検知方法及び行動検知プログラム
CN110099606B (zh) 信息处理***
JP2004157614A (ja) 行動分析装置
WO2019150954A1 (ja) 情報処理装置
JP2020187389A (ja) 移動体軌跡分析装置、移動体軌跡分析プログラム、および移動体軌跡分析方法
WO2021241293A1 (ja) 行動体特定システム
JP2020134971A (ja) 現場学習評価プログラム、現場学習評価方法、および現場学習評価装置
Safarzadeh et al. Real-time fall detection and alert system using pose estimation
Camilus et al. Automated hand hygiene compliance monitoring
JP7314939B2 (ja) 画像認識プログラム、画像認識装置、学習プログラム、および学習装置
Crandall et al. Resident and Caregiver: Handling Multiple People in a Smart Care Facility.
US20240038403A1 (en) Image display apparatus, image display system, image display method, and non-transitory computer readable medium
JP7476599B2 (ja) 情報処理システム、及び情報処理方法
JP7435609B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP2022052910A (ja) 体調評価システム、サーバ、プログラムおよび体調評価サービス提供方法
JP7388440B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
WO2022249635A1 (ja) 行動検知システムおよび行動検知プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230531

R151 Written notification of patent or utility model registration

Ref document number: 7296559

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151