JP7285536B2 - Classifier generation device, target person estimation device and their programs, and target person estimation system - Google Patents

Classifier generation device, target person estimation device and their programs, and target person estimation system Download PDF

Info

Publication number
JP7285536B2
JP7285536B2 JP2018247439A JP2018247439A JP7285536B2 JP 7285536 B2 JP7285536 B2 JP 7285536B2 JP 2018247439 A JP2018247439 A JP 2018247439A JP 2018247439 A JP2018247439 A JP 2018247439A JP 7285536 B2 JP7285536 B2 JP 7285536B2
Authority
JP
Japan
Prior art keywords
subject
classifier
information
person
target person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018247439A
Other languages
Japanese (ja)
Other versions
JP2020107213A (en
Inventor
功一 中山
真也 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NATIONAL UNIVERSITY CORPORATION SAGA UNIVERSITY
Original Assignee
NATIONAL UNIVERSITY CORPORATION SAGA UNIVERSITY
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NATIONAL UNIVERSITY CORPORATION SAGA UNIVERSITY filed Critical NATIONAL UNIVERSITY CORPORATION SAGA UNIVERSITY
Priority to JP2018247439A priority Critical patent/JP7285536B2/en
Publication of JP2020107213A publication Critical patent/JP2020107213A/en
Application granted granted Critical
Publication of JP7285536B2 publication Critical patent/JP7285536B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)

Description

本発明は、対象者を分類するための分類器を任意の監視カメラシステムに配布することで対象者の位置を推定する分類器生成装置等に関する。 The present invention relates to a classifier generation device and the like for estimating a target person's position by distributing a classifier for classifying the target person to an arbitrary surveillance camera system.

ディープラーニング(深層学習)を利用して不審人物等を捜索する技術として、例えば特許文献1に示す技術が開示されている。特許文献1に示す技術は、情報処理装置が、特定対象となる人物の特徴を示す顔画像以外の特徴情報の入力を受け付ける、入力受付部と、特徴情報に含まれる人物の特徴毎に、当該特徴と、画像に写っている人物の特徴との一致度合を判定する、第1判定部と、人物の特徴毎の判定結果に基づいて、特徴情報と画像に写っている人物とが一致しているかどうかを判定する、第2判定部と、を備えるものである。 As a technique for searching for a suspicious person or the like using deep learning, for example, the technique disclosed in Patent Document 1 is disclosed. In the technique disclosed in Patent Document 1, an information processing apparatus receives an input of feature information other than a face image indicating a feature of a person to be identified, A first determination unit that determines the degree of matching between the features and the features of the person appearing in the image; and a second determination unit that determines whether or not there is.

特開2018-142137号公報JP 2018-142137 A

しかしながら、特許文献1に示す技術は、顔画像以外の特徴情報に基づいて人物の一致を判断するものであるが、人物の一致及び非一致を判定する際に当該人物の画像と特徴情報とによる比較を行う必要がある。つまり、対象となる人物の画像情報が共有されることとなるため、個人情報が監視者等に筒抜けになってしまうという問題がある。特に、徘徊するお年寄りや家出人等を捜索するような場合には、できるだけ個人情報を秘匿した状態で対象者を捜査することが望まれる。 However, the technique disclosed in Patent Document 1 determines whether a person matches based on feature information other than a face image. A comparison needs to be made. In other words, since the image information of the target person is shared, there is a problem that the personal information is leaked to the monitor or the like. In particular, when searching for a wandering elderly person, a runaway, or the like, it is desirable to investigate the target while keeping personal information as confidential as possible.

本発明は、捜索する対象者の個人情報を秘匿した状態で当該対象者の位置を推定することができる分類器生成装置等を提供する。 The present invention provides a classifier generation device and the like that can estimate the position of a target person to be searched while keeping the personal information of the target person hidden.

本発明に係る分類器生成装置は、対象者を撮像する第1撮像手段と、第1撮像手段で撮像された撮像情報に基づいて、前記対象者ごとに当該対象者を特定する分類器を生成する分類器生成手段と、任意の場所に設置されている第2撮像手段に関連付けられた制御装置が利用可能となるように、前記分類器を送信する分類器送信手段を備えるものである。 A classifier generation apparatus according to the present invention generates a classifier for identifying a target person for each target person based on first image capturing means for capturing an image of the target person and image information captured by the first image capturing means. and a classifier transmitting means for transmitting the classifier so that a control device associated with the second imaging means installed at an arbitrary place can be used.

このように、本発明に係る分類器生成装置においては、対象者を撮像し、当該撮像された撮像情報に基づいて、前記対象者ごとに当該対象者を特定する分類器を生成し、任意の場所に設置されている第2撮像手段に関連付けられた制御装置が利用可能となるように、前記分類器を送信するため、対象者自身の個人情報が特定されるような画像などの情報を第3者に公開することなく分類器のみを配布することで、第2撮像手段に撮像される人物を特定することができるという効果を奏する。 As described above, in the classifier generating apparatus according to the present invention, an image of a subject is captured, and based on the captured image information, a classifier for specifying the subject is generated for each subject, and an arbitrary classifier is generated. In order to transmit the classifier so that the control device associated with the second imaging means installed in the place can be used, information such as an image that identifies the subject's own personal information is first sent. By distributing only the classifier without disclosing it to three parties, it is possible to specify the person imaged by the second imaging means.

本発明に係る対象者推定装置は、前記分類器生成装置で生成された前記分類器が前記制御装置で利用された結果を検出結果情報として受信する検出結果情報受信手段と、受信した前記検出結果情報に基づいて、前記対象者の位置を特定する位置特定手段と、特定した前記対象者の位置の結果を出力する出力制御手段とを備えるものである。 A target person estimation apparatus according to the present invention includes: detection result information receiving means for receiving, as detection result information, a result of using the classifier generated by the classifier generation device in the control device; and the received detection result. The apparatus comprises position specifying means for specifying the position of the subject based on the information, and output control means for outputting the result of the specified position of the subject.

このように、本発明に係る対象者推定装置においては、分類器生成装置で生成された分類器による検出結果情報を受信し、受信した検出結果情報に基づいて対象者の位置を特定し、特定した対象者の位置の結果を出力するため、任意の箇所に設置されている第2撮像手段で撮像された対象者の位置を容易に確認し、捜索することが可能になるという効果を奏する。 Thus, in the subject estimation apparatus according to the present invention, the detection result information obtained by the classifier generated by the classifier generation apparatus is received, and the position of the subject is specified based on the received detection result information. Since the result of the target person's position is output, it is possible to easily confirm the target person's position imaged by the second image pickup means installed at an arbitrary location and search.

本発明に係る対象者推定装置は、前記対象者の移動速度に基づいて、当該対象者が存在する範囲を特定する範囲特定手段を備えるものである。 A target person estimation device according to the present invention comprises range specifying means for specifying a range in which the target person exists based on the moving speed of the target person.

このように、本発明に係る対象者推定装置においては、対象者の移動速度に基づいて、当該対象者が存在する範囲を特定するため、捜索範囲を絞って捜索作業を簡素化することができるという効果を奏する。 As described above, in the target person estimation device according to the present invention, since the range in which the target person exists is specified based on the moving speed of the target person, the search range can be narrowed down to simplify the search work. It has the effect of

本発明に係る対象者推定装置は、前記出力制御手段が、任意の場所に設置されている前記第2撮像手段の場所、又は当該第2撮像手段の撮像情報から推定される前記対象者の場所をマップ上で表示すると共に、当該各第2撮像手段に関連付けられた前記制御装置が前記分類器で分類した前記検出結果情報を前記第2撮像手段の場所、又は推定される前記対象者の場所と対応付けて表示するものである。 In the subject estimating device according to the present invention, the output control means may be the location of the second imaging means installed at an arbitrary location, or the location of the subject estimated from the imaging information of the second imaging means. is displayed on a map, and the detection result information classified by the classifier by the control device associated with each second imaging means is displayed as the location of the second imaging means or the estimated location of the subject are displayed in association with

このように、本発明に係る対象者推定装置においては、出力制御手段が、任意の場所に設置されている第2撮像手段の場所、又は当該第2撮像手段の撮像情報から推定される前記対象者の場所をマップ上で表示すると共に、当該各第2撮像手段に関連付けられた制御装置が分類器で分類した検出結果情報を第2撮像手段の場所、又は推定される前記対象者の場所と対応付けて表示するため、マップ上でどの第2撮像手段がどのような撮像対象を撮像したかを瞬時に確認して、対象者らしい人物の有無を確認することができるという効果を奏する。 As described above, in the target person estimation device according to the present invention, the output control means detects the location of the second imaging means installed at an arbitrary location, or the target estimated from the imaging information of the second imaging means. The location of the person is displayed on a map, and the detection result information classified by the classifier by the control device associated with each second imaging means is displayed as the location of the second imaging means or the estimated location of the subject. Since the images are displayed in association with each other, it is possible to instantaneously confirm which second imaging means has imaged what kind of object on the map, and to confirm whether or not there is a person who seems to be the object.

本発明に係る対象者推定装置は、前記出力制御手段が、前記検出結果情報が、前記第2撮像手段で撮像された人物が前記対象者である可能性を示す割合で演算され、当該割合が所定の値以上である場合に他の結果情報と異なる態様で表示するものである。 In the target person estimation device according to the present invention, the output control means calculates the detection result information by a ratio indicating the possibility that the person imaged by the second imaging means is the target person, and the ratio is When it is equal to or greater than a predetermined value, it is displayed in a manner different from other result information.

このように、本発明に係る対象者推定装置においては、出力制御手段が、結果情報を第2撮像手段で撮像された人物が対象者である可能性を示す割合で演算され、当該割合が所定の値以上である場合に他の結果情報と異なる態様で表示するため、対象者らしい人物の位置情報をマップ上で容易に視認することが可能になるという効果を奏する。 As described above, in the target person estimation device according to the present invention, the output control means calculates the result information at a ratio indicating the possibility that the person imaged by the second image pickup means is the target person, and the ratio is a predetermined value. is greater than or equal to the value of , it is displayed in a manner different from that of other result information, so there is an effect that the position information of a person who seems to be the target person can be easily visually recognized on the map.

第1の実施形態に係る対象者推定システムのシステム概要図である。1 is a system schematic diagram of a subject estimation system according to a first embodiment; FIG. 第1の実施形態に係る対象者推定システムのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the candidate estimation system which concerns on 1st Embodiment. 分類器生成装置、監視制御装置及び管理装置等のコンピュータのハードウェア構成図である。It is a hardware block diagram of computers, such as a classifier generation apparatus, a monitoring control apparatus, and a management apparatus. 第1の実施形態に係る対象者推定システムの処理を示すフローチャートである。4 is a flowchart showing processing of the subject estimation system according to the first embodiment; 第1の実施形態に係る分類器生成装置の機能ブロック図である。1 is a functional block diagram of a classifier generation device according to a first embodiment; FIG. 第1の実施形態に係る分類器生成装置の処理を示すフローチャートである。4 is a flowchart showing processing of the classifier generation device according to the first embodiment; 第1の実施形態に係る監視制御装置の機能ブロック図である。1 is a functional block diagram of a monitoring control device according to a first embodiment; FIG. 第1の実施形態に係る監視制御装置の処理を示すフローチャートである。4 is a flowchart showing processing of the monitoring control device according to the first embodiment; 第1の実施形態に係る管理装置の機能ブロック図である。3 is a functional block diagram of a management device according to the first embodiment; FIG. 第1の実施形態に係る管理装置の処理を示すフローチャートである。6 is a flowchart showing processing of the management device according to the first embodiment; 分類結果情報を取得してマップ表示するまでの具体的な処理の一例を示すフローチャートである。10 is a flowchart showing an example of specific processing from acquisition of classification result information to map display. 表示されたマップの一例を示す図である。It is a figure which shows an example of the displayed map.

以下、本発明の実施の形態を説明する。また、本実施形態の全体を通して同じ要素には同じ符号を付けている。 Embodiments of the present invention will be described below. Also, the same reference numerals are given to the same elements throughout the present embodiment.

(本発明の第1の実施形態)
本実施形態に係る分類器生成装置及び対象者推定装置を含む対象者推定システムについて、図1ないし図12を用いて説明する。本実施形態に係る対象者推定システムは、例えば徘徊者を介護者が捜索するような場合に、徘徊者の個人情報を公開することなく任意の場所に設置されている監視カメラ等で徘徊者らしい人物を特定することで、プライバシーを確保しつつ徘徊者を効率よく捜索することが可能となる。以下の実施形態においては、介護施設における徘徊者の捜索を具体例として挙げ、徘徊者等の捜索される人を捜索対象者、介護者等の捜索する人を捜索者とする。なお、徘徊者の捜索以外にも、家出人、誘拐、行方不明者、人探し(身近な人や犯罪者なども含む)等で本技術を適用することが可能である。
(First embodiment of the present invention)
A target person estimation system including a classifier generation device and a target person estimation device according to the present embodiment will be described with reference to FIGS. 1 to 12. FIG. For example, when a caregiver searches for a wanderer, the target person estimation system according to the present embodiment uses a surveillance camera or the like installed at an arbitrary location without disclosing the personal information of the wanderer. By identifying a person, it becomes possible to efficiently search for a wanderer while ensuring privacy. In the following embodiments, searching for a wanderer in a care facility is taken as a specific example, and a person to be searched, such as a wanderer, is defined as a search target, and a caregiver, etc., is defined as a searcher. In addition to searching for wanderers, this technology can also be applied to runaways, kidnappings, missing persons, searching for people (including familiar people and criminals), and the like.

図1は、本実施形態に係る対象者推定システムのシステム概要を示す図である。対象者推定システム1は、捜索対象者2が普段居住している介護施設に設置される分類器生成システム10と、街中のコンビニエンスストア、スーパー、道路の電柱などに設置される監視カメラシステム20と、監視カメラシステム20から得られた情報を解析して捜索者に提示する管理装置30と取得したデータ等を記憶するためのクラウドサーバ100とを備える。 FIG. 1 is a diagram showing a system overview of a subject estimation system according to this embodiment. The target person estimation system 1 includes a classifier generation system 10 installed in a care facility where a search target person 2 usually resides, and a surveillance camera system 20 installed in convenience stores, supermarkets, utility poles on roads, etc. in the city. , a management device 30 that analyzes information obtained from the monitoring camera system 20 and presents it to a searcher, and a cloud server 100 that stores acquired data and the like.

分類器生成システム10は、例えば介護施設などの玄関付近に設置されており、建物から退出する人物(捜索対象者2)の静止画像や動画像を随時撮像する第1カメラ11と、当該第1カメラ11で撮像された撮像データに基づいて捜索対象者2を分類するための分類器を生成する分類器生成装置12とを備える。分類器生成装置12で生成される分類器はディープラーニングにより作成され、特定の人物を検知し、その検知した人を分類(クラス分け)する処理部であり、捜索対象者2の特徴(例えば、退出時の髪型、服装、外形、顔等)に応じた重み情報が生成される。生成された分類器の重み情報は、クラウドサーバ100にアップロードされて記憶される。分類器生成装置12の構成及び処理については、詳細を後述する。 The classifier generation system 10 is installed, for example, in the vicinity of the entrance of a nursing home or the like. A classifier generating device 12 for generating a classifier for classifying the search target person 2 based on image data captured by the camera 11 . The classifier generated by the classifier generation device 12 is created by deep learning, and is a processing unit that detects a specific person and classifies (classifies) the detected person. Weight information is generated according to the hair style, clothes, external shape, face, etc. at the time of leaving. The generated classifier weight information is uploaded to and stored in the cloud server 100 . Details of the configuration and processing of the classifier generation device 12 will be described later.

監視カメラシステム20は、既に一般的に普及している監視カメラシステム20をベースにして本実施形態に適用させることができる。監視カメラシステム20は、例えばコンビニエンスストアなどに設置されており、店内や出入口を常に監視して動画像を撮像する第2カメラ21と、当該第2カメラ21で撮像された撮像データを保存したり再生したりする監視制御装置22とを備える。一般的に1台の監視制御装置22で複数台の第2カメラ21の撮像情報が管理されている。例えば、店内に設置された複数の第2カメラ21を同じ店内に設置された1台の監視制御装置22で管理したり、図1に示すように、複数の電柱に設置されている第2カメラ21の撮像情報等を監視センターのような場所で一括して管理するような運用もある。 The monitoring camera system 20 can be applied to the present embodiment based on the monitoring camera system 20 that has already been widely used. The surveillance camera system 20 is installed, for example, in a convenience store, and has a second camera 21 that constantly monitors the inside of the store and the entrance/exit to capture a moving image, and saves image data captured by the second camera 21. and a monitor control device 22 that reproduces the data. In general, one monitor control device 22 manages image information of a plurality of second cameras 21 . For example, a plurality of second cameras 21 installed in a store may be managed by a single monitoring control device 22 installed in the same store, or as shown in FIG. 21 imaging information and the like are collectively managed at a place such as a monitoring center.

本実施形態においては、監視制御装置22が、分類器生成装置12で生成された分類器の重み情報をクラウドサーバ100からダウンロードし、当該ダウンロードした重み情報を用いた分類器で第2カメラ21にて撮像される人物が捜索対象者2であるかどうかの解析がなされる。分類器生成装置12で生成された分類器の重み情報は、捜索対象者2の特徴を重み付けした情報であり、個人を特定するような情報は含まれない。すなわち、捜索対象者2の個人情報が不特定多数の人に公開されることなく捜索対象者2であるかどうかの解析が行われる。解析された結果はクラウドサーバ100にアップロードされて記憶される。監視制御装置22の構成及び処理については、詳細を後述する。 In this embodiment, the monitoring control device 22 downloads the weight information of the classifier generated by the classifier generation device 12 from the cloud server 100, and the second camera 21 uses the classifier using the downloaded weight information. Then, an analysis is made as to whether or not the person imaged is the search target person 2 . The classifier weight information generated by the classifier generation device 12 is information obtained by weighting the characteristics of the search target person 2, and does not include information that identifies an individual. In other words, the analysis as to whether or not the search target person 2 is the search target person 2 is performed without disclosing the personal information of the search target person 2 to an unspecified number of people. The analyzed result is uploaded to the cloud server 100 and stored. The configuration and processing of the monitoring control device 22 will be detailed later.

管理装置30は、捜索者が捜索対象者2の位置を確認する場合や、システム管理をする場合に使用される。管理装置30は、監視制御装置22で検出及び分類された検出結果情報をクラウドサーバ100からダウンロードし、捜索対象者2の位置を特定して出力する。検出結果情報には、第2カメラ21に撮像された人物が捜索対象者2らしい情報が含まれており、例えばその人物が捜索対象者2である確率等が含まれる。捜索対象者2である確率が高い場合(例えば、予め設定された閾値よりも高い確率である場合)は、その人物が撮像された第2カメラ21の位置情報、又は当該第2カメラ21の設置向きと撮影された撮像情報とから捜索対象者2の位置を特定することが可能となる。位置が特定されると、マップ上のその位置に捜索対象者2らしい人物が撮像された旨の情報が表示される。捜索者は、マップ上に表示された情報と、実際に第2カメラ21で撮像された撮像情報とから、第2カメラ21で撮像された人物が捜索対象者2であるかどうかを判断することが可能となる。 The management device 30 is used when a searcher confirms the position of the search target person 2 and when performing system management. The management device 30 downloads the detection result information detected and classified by the monitoring control device 22 from the cloud server 100, specifies the position of the person to be searched 2, and outputs it. The detection result information includes information that the person imaged by the second camera 21 seems to be the search target person 2, and includes, for example, the probability that the person is the search target person 2. If the probability of being the person to be searched 2 is high (for example, if the probability is higher than a preset threshold), the position information of the second camera 21 that captured the person, or the installation of the second camera 21 It is possible to specify the position of the person to be searched 2 from the orientation and the captured imaging information. When the position is specified, information is displayed to the effect that a person who seems to be the search target person 2 has been imaged at that position on the map. The searcher can determine whether the person imaged by the second camera 21 is the search target person 2 from the information displayed on the map and the image information actually imaged by the second camera 21. becomes possible.

このとき、捜索対象者2の移動速度を考慮して、捜索対象者2が存在する範囲を演算して特定することも可能である。例えば、徒歩で外出している場合、自転車で外出している場合、自動車で外出している場合、普段から電車等の公共交通機関を頻繁に利用している場合等の捜索対象者2の特徴を考慮することで、捜索対象者2が存在する最大範囲を外出から経過した時間で推定し、その範囲内に設置されている第2カメラ21の撮像情報から捜索対象者2をメインに捜索することが可能となる。また、捜索対象者2のある時刻の位置が特定または高い確率で確からしい場合、次の時刻における捜索対象者2が存在する最大範囲を、前記ある時刻から前記次の時刻までに経過した時間と捜索対象者2の移動速度から、捜索対象者2が存在する最大範囲を逐次的に推定することが可能となる。管理装置30の構成及び処理については、詳細を後述する。 At this time, it is also possible to calculate and specify the range in which the search target person 2 exists in consideration of the moving speed of the search target person 2 . For example, characteristics of the search target person 2, such as when they go out on foot, when they go out by bicycle, when they go out by car, when they frequently use public transportation such as trains, etc. By considering the above, the maximum range in which the search target person 2 exists is estimated by the time elapsed since going out, and the search target person 2 is mainly searched from the imaging information of the second camera 21 installed within that range. becomes possible. In addition, when the position of the person to be searched 2 at a certain time is specified or highly probable, the maximum range in which the person to be searched 2 exists at the next time is defined as the time elapsed from the time to the next time. From the moving speed of the search target person 2, it is possible to successively estimate the maximum range in which the search target person 2 exists. The configuration and processing of the management device 30 will be detailed later.

なお、管理装置30は、捜索対象者2の位置を確認する機能とシステム全体を管理する管理機能との両方を備える構成であってもよいし、それぞれの機能を別々の管理装置で行うようにしてもよい。また、第2カメラ21に撮像された人物の情報は、捜索対象者2である確率が高い場合にのみ確率情報と共に管理装置30に送信してもよいし、撮像される全ての人物について管理装置30に送信されてもよい。さらに、捜索対象者2の位置の特定は、第2カメラ21の位置情報から管理装置30側で演算により求めてもよいし、第2カメラ21を制御する監視制御装置22側で演算した位置情報を管理装置30に送信するようにしてもよい。さらに、捜索対象者2の位置を特定する演算は、前記管理装置30により推定された捜索対象者2が存在する最大範囲に存在する第2カメラ21に限定しても良い。 The management device 30 may have both a function of confirming the position of the person to be searched 2 and a management function of managing the entire system, or each function may be performed by separate management devices. may In addition, the information of the person imaged by the second camera 21 may be transmitted to the management device 30 together with the probability information only when the probability of being the search target person 2 is high. 30. Furthermore, the position of the person to be searched 2 may be determined by calculation on the management device 30 side from the position information of the second camera 21, or the position information calculated on the monitoring control device 22 side that controls the second camera 21. may be transmitted to the management device 30 . Furthermore, the calculation for identifying the position of the person to be searched 2 may be limited to the second camera 21 existing in the maximum range where the person to be searched 2 exists, estimated by the management device 30 .

図2は、本実施形態に係る対象者推定システムのハードウェア構成を示すブロック図である。対象者推定システム1は、後に捜索対象者2となり得る人物を撮像する第1カメラ11と、第1カメラ11で撮像された撮像情報に基づいて被撮像者を検知及び分類することができる分類器を生成する分類器生成装置12と、街中などの任意の場所に設置されている監視カメラとしての第2カメラ21と、第2カメラ21で撮像された情報の管理や第2カメラ21の駆動を制御すると共に、分類器生成装置12で生成された分類器を受け取って前記被撮像者を捜索対象者2として検知及び分類する処理を行う監視制御装置22と、監視制御装置22で検知及び分類した情報を受信して捜索対象者2が居る位置を特定すると共に、その情報をディスプレイ31などに表示する管理装置30とを備える。また、第カメラ11や第2カメラ21で撮像した撮像情報、分類器生成装置12で生成された分類器の重み情報、及び/又は監視制御装置22の解析結果等を格納するデータサーバを有するクラウドサーバ100が備えられている。 FIG. 2 is a block diagram showing the hardware configuration of the subject estimation system according to this embodiment. The target person estimation system 1 includes a first camera 11 that captures an image of a person who can later become a search target person 2, and a classifier that can detect and classify the imaged person based on image information captured by the first camera 11. , a second camera 21 as a monitoring camera installed in an arbitrary place such as in the city, and managing information captured by the second camera 21 and driving the second camera 21. a monitoring control device 22 that controls and receives the classifier generated by the classifier generating device 12 to detect and classify the person to be imaged as the search target person 2; A management device 30 is provided for receiving information to specify the position of the person to be searched 2 and displaying the information on a display 31 or the like. In addition, a cloud having a data server that stores imaging information captured by the first camera 11 and the second camera 21, classifier weight information generated by the classifier generation device 12, and/or analysis results of the monitoring control device 22, etc. A server 100 is provided.

なお、クラウドサーバ100は、対象者推定システムの一部としてシステム内に備える構成としてもよいし、対象者推定システムには含まれない外部サーバとして存在してもよい。 Note that the cloud server 100 may be provided within the system as part of the subject estimation system, or may exist as an external server not included in the subject estimation system.

図3は、分類器生成装置12、監視制御装置22及び管理装置30等のコンピュータのハードウェア構成図である。各装置のコンピュータは、CPU41、RAM42、ROM43、ハードディスク(HDとする)44、通信I/F45及び入出力I/F46を備える。ROM43やHD44には、オペレーティングシステムや各種プログラムが格納されており、必要に応じてRAM42に読み出され、CPU41により各プログラムが実行される。通信I/F45は、装置間や各種デバイスとの通信を行うためのインタフェースである。入出力I/F46は、第1カメラ11や第2カメラ21等のカメラ機器、タッチパネル、キーボード、マウス等の入力デバイスからの入力を受け付けたり、ディスプレイ31に情報を出力するためのインタフェースである。なお、上記ハードウェアの構成はあくまで一例であり、必要に応じて変更可能である。 FIG. 3 is a hardware configuration diagram of computers such as the classifier generation device 12, the monitoring control device 22, and the management device 30. As shown in FIG. A computer of each device includes a CPU 41 , a RAM 42 , a ROM 43 , a hard disk (HD) 44 , a communication I/F 45 and an input/output I/F 46 . An operating system and various programs are stored in the ROM 43 and the HD 44 , read out to the RAM 42 as necessary, and the CPU 41 executes each program. The communication I/F 45 is an interface for communicating between apparatuses and with various devices. The input/output I/F 46 is an interface for receiving inputs from camera devices such as the first camera 11 and the second camera 21 and input devices such as a touch panel, keyboard, and mouse, and for outputting information to the display 31 . Note that the hardware configuration described above is merely an example, and can be changed as necessary.

図4は、本実施形態に係る対象者推定システムの処理を示すフローチャートである。まず、後に捜索対象者2となり得る被撮像者が在住している施設等の出入口付近に設置された第1カメラ11にて、退出する被撮像者を複数の角度から撮像する(S1)。分類器生成装置12は、第1カメラ11にて撮像された撮像情報に含まれる当該被撮像者の特徴(例えば、退出時の服装、髪型等)に基づいて、当該被撮像者を検知及び分類することが可能な分類器の重み情報を生成する(S2)。被撮像者の行方が不明となり捜索対象者2として捜索することになると、捜索対象者2に対応する分類器の重み情報が各地に設置されている監視カメラシステム20の監視制御装置22に配信される(S3)。 FIG. 4 is a flow chart showing processing of the target person estimation system according to the present embodiment. First, the first camera 11 installed near the entrance of a facility or the like where the person to be imaged who can later become the person to be searched 2 resides takes images of the person to be imaged leaving from a plurality of angles (S1). The classifier generation device 12 detects and classifies the imaged person based on the characteristics of the imaged person (for example, clothes, hairstyle, etc. when leaving) included in the image information captured by the first camera 11. Weight information of a classifier that can be used is generated (S2). When the whereabouts of a person to be imaged becomes unknown and a search is made as a search target person 2, the weight information of the classifier corresponding to the search target person 2 is distributed to the monitoring control devices 22 of the monitoring camera systems 20 installed in various places. (S3).

分類器の重み情報を受信した監視制御装置22は、当該監視制御装置22に対応付けられている第2カメラ21で撮像された人物を分類器にかけて、当該人物が捜索対象者2であるかどうかの解析を行う(S4)。解析結果をクラウドサーバ100に送信する(S5)。クラウドサーバ100から解析結果を受信した管理装置30は、捜索対象者2の移動速度等を考慮した推定処理を行い(S6)、捜索対象者2が撮像された確率と共に、その位置をマップ上に表示する(S7)。該当する捜索対象者2が見つかるまでS4~S7の処理が繰り返して行われる。 The monitoring control device 22 that has received the weight information of the classifier applies the person imaged by the second camera 21 associated with the monitoring control device 22 to the classifier to determine whether the person is the search target person 2. is analyzed (S4). The analysis result is transmitted to the cloud server 100 (S5). The management device 30, which has received the analysis result from the cloud server 100, performs estimation processing considering the moving speed of the search target person 2 (S6), and displays the position of the search target person 2 on the map along with the probability that the image was captured. Display (S7). The processes of S4 to S7 are repeated until the corresponding search target person 2 is found.

次に、各装置の構成及び処理について詳細に説明する。図5は、本実施形態に係る分類器生成装置の機能ブロック図である。分類器生成装置12は、第1カメラ11が複数の方向から被撮像者を撮像した撮像情報を入力する撮像情報入力部121と、入力された撮像情報を格納しておく撮像情報記憶部122と、撮像情報に基づいて被撮像者を特定する分類器を生成するための教師データを作成する教師データ作成部123と、教師データを使ってディープラーニングを行って分類器の重み情報を生成する分類器生成部124と、生成された分類器の重み情報を格納しておく重み情報記憶部125と、生成された分類器の重み情報をクラウドサーバ100にアップロードするデータ送信部126とを備える。このときクラウドサーバ100にアップロードされる情報は分類器の重み情報であるため、被撮像者の個人情報が第3者に渡ることはなく、秘匿性を担保することが可能となる。 Next, the configuration and processing of each device will be described in detail. FIG. 5 is a functional block diagram of the classifier generation device according to this embodiment. The classifier generation device 12 includes an imaging information input unit 121 that inputs imaging information obtained by imaging the person to be imaged from a plurality of directions by the first camera 11, and an imaging information storage unit 122 that stores the input imaging information. , a teacher data creation unit 123 that creates teacher data for creating a classifier that identifies a person to be imaged based on imaging information, and a classification that generates weight information for the classifier by performing deep learning using the teacher data. A weight information storage unit 125 that stores the weight information of the generated classifier, and a data transmission unit 126 that uploads the generated weight information of the classifier to the cloud server 100 . Since the information uploaded to the cloud server 100 at this time is the weight information of the classifier, the personal information of the person to be imaged will not be passed on to a third party, and confidentiality can be ensured.

第1カメラ11は、被撮像者の特徴データをより正確に取得するために複数の角度から被撮像者を撮像できるように配置されている。撮像場所は被撮像者が居住する建物から退出する際の玄関口などが好ましい。また、撮像処理は動画像により常時行ってもよいし、人が通過する際に反応するセンサに応じて、被撮像者の通過時のみ静止画像又は動画像にて撮像されるようにしてもよい。 The first camera 11 is arranged so as to capture images of the person to be imaged from a plurality of angles in order to obtain the feature data of the person to be imaged more accurately. It is preferable that the imaging location is the entrance when exiting the building in which the person to be imaged resides. In addition, the imaging process may be always performed using a moving image, or may be performed as a still image or a moving image only when the person to be imaged passes, depending on the sensor that reacts when the person passes. .

教師データ作成部123は、第1カメラ11で撮像された被撮像者の撮像情報(ここでは、動画像とする)からフレームごとに切り出し、当該フレーム内に人物が撮像されていれば人物の領域のみを切り出して教師データを作成する。分類器生成部124は、作成された教師データからディープラーニングを用いて分類器を生成する。データ送信部126は、生成された分類器の重み情報をクラウドサーバ100にアップロードする。 The teacher data creation unit 123 cuts out each frame from the imaging information (here, moving image) of the person to be imaged captured by the first camera 11, and if a person is imaged in the frame, the area of the person is extracted. Cut out only to create training data. The classifier generation unit 124 generates a classifier using deep learning from the created teacher data. The data transmission unit 126 uploads the generated classifier weight information to the cloud server 100 .

なお、図5に示すように撮像情報入力121が入力した撮像情報は、撮像情報記憶部122に記憶される。この撮像情報は、第1カメラ11が撮像した生データであり、被撮像者の顔など個人を特定する情報が多く含まれているため、分類器生成装置12内で管理されることが望ましい。また、容量に応じて古い撮像情報から順次削除し、最新の撮像情報を常時記憶するようにしてもよい。また、重み情報記憶部125は、必ずしも構成として備える必要はないが、念のためのバックアップデータとして重み情報記憶部125に重み情報を格納しておくことが望ましい。 Note that the imaging information input by the imaging information input 121 as shown in FIG. 5 is stored in the imaging information storage unit 122 . This imaged information is raw data imaged by the first camera 11 and contains a lot of information for identifying an individual such as the face of the person being imaged. Alternatively, the image pickup information may be deleted sequentially according to the capacity, and the latest image pickup information may be always stored. Also, the weight information storage unit 125 does not necessarily have to be provided as a configuration, but it is desirable to store the weight information in the weight information storage unit 125 as backup data just in case.

図6は、本実施形態に係る分類器生成装置の処理を示すフローチャートである。まず、撮像情報入力部121が第1カメラ11で撮像された撮像情報の入力を受け付ける(S1)。教師データ作成部122が撮像情報から人物を切り出し、教師データを作成する(S2)。分類器生成部124が、ディープラーニングを用いて分類器を生成する(S3)。データ送信部126が、生成された分類器の重み情報をクラウドサーバ100にアップロードして(S4)、分類器の生成処理を終了する。なお、分類器の生成処理において教師データに対する正解ラベルを与えるようにしてもよく、例えばスタッフによる入力作業、被撮像者の名札等に記載された識別情報(例えば、バーコードやQRコード(登録商標))の読み込み、顔認識等を用いるようにしてもよい。 FIG. 6 is a flow chart showing the processing of the classifier generation device according to this embodiment. First, the imaging information input unit 121 receives input of imaging information captured by the first camera 11 (S1). The teacher data creation unit 122 cuts out a person from the imaging information and creates teacher data (S2). The classifier generation unit 124 generates a classifier using deep learning (S3). The data transmission unit 126 uploads the weight information of the generated classifier to the cloud server 100 (S4), and ends the classifier generation process. It should be noted that a correct label may be given to the teacher data in the classifier generation process. )), face recognition, or the like may be used.

図7は、本実施形態に係る監視制御装置の機能ブロック図である。監視制御装置22は、クラウドサーバ100にアップロードされた分類器に対応する被撮像者が行方不明になったり捜索対象者2となった場合に、その対応する分類器の重み情報を取得する重み情報取得部221と、第2カメラ21が撮像した撮像情報を入力する撮像情報入力部222と、入力された撮像情報に対して画像の前処理を行う画像処理部223と、画像処理部223が処理した画像を、重み情報取得部221が取得した重み情報に基づいて作成された分類器にかけて、捜索対象者2を検知及び分類する分類処理部224と、分類処理の結果をクラウドサーバ100にアップロードするデータ送信部225とを備える。 FIG. 7 is a functional block diagram of the monitoring control device according to this embodiment. The monitoring control device 22 acquires the weight information of the corresponding classifier when the person to be imaged corresponding to the classifier uploaded to the cloud server 100 goes missing or becomes the search target person 2. An acquisition unit 221, an imaging information input unit 222 for inputting imaging information captured by the second camera 21, an image processing unit 223 for performing image preprocessing on the input imaging information, and an image processing unit 223. A classification processing unit 224 that detects and classifies the search target person 2 by applying the obtained image to a classifier created based on the weight information acquired by the weight information acquisition unit 221, and uploads the results of the classification processing to the cloud server 100. and a data transmission unit 225 .

重み情報取得部221は、クラウドサーバ100からの分類器取得指示に応じて重み情報を取得する。例えば、クラウドサーバ100から双方向通信を用いてクラウドサーバ100上の分類器のダウンロードリンクを受信し、受信したダウンロードリンクに対してリクエストを行い、分類器をダウンロードする。ダウンロードされた情報は、分類器の重み情報であり個人情報は含まれていない。したがって、捜索対象者2の個人を特定するような個人情報が第3者に漏洩することはない。なお、分類器の取得方法は上記の方法に限らず、クラウドサーバ100から対応する重み情報を受信することができる方法であれば何でもよい。 The weight information acquisition unit 221 acquires weight information in response to a classifier acquisition instruction from the cloud server 100 . For example, a download link of a classifier on the cloud server 100 is received from the cloud server 100 using two-way communication, a request is made to the received download link, and the classifier is downloaded. The downloaded information is classifier weight information and does not contain personal information. Therefore, personal information that identifies the person to be searched 2 will not be leaked to a third party. Note that the classifier acquisition method is not limited to the above method, and any method that can receive the corresponding weight information from the cloud server 100 may be used.

画像処理部223は、第2カメラ21で撮像された撮像情報(ここでは、動画像とする)からフレームごとに切り出し、当該フレーム内に人物が撮像されていれば人物の領域のみを切り出す処理を行う。そして、分類処理部224において、画像処理部223にて画像処理された画像データに対し、重み情報取得部221で取得された重み情報に基づいて作成された分類器により画像を分類し、撮像された人物が捜索対象者2であるかの分類を行う。データ送信部225は、分類された結果をクラウドサーバ100にアップロードする。 The image processing unit 223 extracts each frame from the imaging information (here, moving image) captured by the second camera 21, and if a person is captured in the frame, extracts only the area of the person. conduct. Then, in the classification processing unit 224, the image data processed by the image processing unit 223 is classified by a classifier created based on the weight information acquired by the weight information acquisition unit 221, and the images are captured. Then, it is classified whether the person found is the search target person 2 or not. The data transmission unit 225 uploads the classified result to the cloud server 100 .

図8は、本実施形態に係る監視制御装置の処理を示すフローチャートである。まず、重み情報取得部221が、クラウドサーバ100から分類器の重み情報の取得指示を受信する(S1)。受信した取得指示にしたがってクラウドサーバ100から重み情報を取得する(S2)。撮像情報入力部222が、第2カメラ21で撮像された撮像情報の入力を受け付ける(S3)。画像処理部223が、撮像情報の中から人物を切り出す(S4)。分類処理部224が、S4で切り出した画像の人物について分類器を使った分類処理を行う(S5)。ここで言う分類処理は、クラウドサーバ100から取得した重み情報に基づいて作成された分類器により、S4で切り出した画像の人物が捜索対象者2であるかを分類し、その一致度を算出する。データ送信部225が、分類結果をクラウドサーバ100にアップロードし(S6)、捜索対象者2が捜索されるまでS3~S6の処理が繰り返して行われる。 FIG. 8 is a flowchart showing processing of the monitoring control device according to this embodiment. First, the weight information acquisition unit 221 receives a classifier weight information acquisition instruction from the cloud server 100 (S1). Weight information is acquired from the cloud server 100 according to the received acquisition instruction (S2). The imaging information input unit 222 receives input of imaging information captured by the second camera 21 (S3). The image processing unit 223 cuts out a person from the imaging information (S4). The classification processing unit 224 performs classification processing using a classifier on the person in the image cut out in S4 (S5). The classification process referred to here classifies whether or not the person in the image cut out in S4 is the search target person 2 using a classifier created based on the weight information acquired from the cloud server 100, and calculates the matching degree. . The data transmission unit 225 uploads the classification result to the cloud server 100 (S6), and the processes of S3 to S6 are repeated until the search target person 2 is searched.

なお、S5の分類処理において、クラウドサーバ100から取得した重み情報に基づいて作成された分類器により、S4で切り出した画像の人物が捜索対象者2である確率を求めて分類結果としてもよい。また、第2カメラ21が設置されている位置の情報、又は当該第2カメラ21の設置向きと撮影された撮像情報とに基づいて推定される捜索対象者2の位置の情報を併せてクラウドサーバ100にアップロードしてもよい。さらに、第2カメラ21に人物が撮像された時間とその時の移動状態(例えば、徒歩、小走り、自転車等)とに応じた現在のリアルタイムな捜索対象者2の存在する最大範囲を演算し、分類結果と共にクラウドサーバ100にアップロードしてもよい。 In the classification process of S5, the probability that the person in the image cut out in S4 is the search target person 2 may be obtained as the classification result using a classifier created based on the weight information acquired from the cloud server 100. In addition, information on the position where the second camera 21 is installed, or information on the position of the search target person 2 estimated based on the installation orientation of the second camera 21 and the captured image information is also stored in the cloud server. You can upload to 100. Furthermore, the current maximum real-time search target person 2 range is calculated according to the time when the person was imaged by the second camera 21 and the movement state at that time (for example, walking, jogging, bicycling, etc.), and classified. You may upload to the cloud server 100 with a result.

図9は、本実施形態に係る管理装置の機能ブロック図である。管理装置30は、クラウドサーバ100にアップロードされた分類結果を取得する分類結果取得部301と、捜索対象者2の退出時間及び移動速度に基づいて、又は取得した分類結果に基づいて当該捜索対象者2が存在する範囲を推定して演算する対象範囲特定部302と、分類結果の情報及び捜索対象者2の存在する最大範囲に基づいて、捜索対象者2が存在する確率がわかるマップを生成するマップ生成部303と、生成されたマップをディスプレイ31に表示する表示制御部304とを備える。 FIG. 9 is a functional block diagram of the management device according to this embodiment. The management device 30 includes a classification result acquisition unit 301 that acquires the classification results uploaded to the cloud server 100, and based on the exit time and moving speed of the search target person 2, or based on the acquired classification result. A target range specifying unit 302 for estimating and calculating the range in which 2 exists, and a map that shows the probability that the search target person 2 exists is generated based on the information of the classification result and the maximum range in which the search target person 2 exists. A map generation unit 303 and a display control unit 304 for displaying the generated map on the display 31 are provided.

なお、対象範囲特定部302は、捜索対象者2が居住する建物から退出した時間と移動速度から推定される最大範囲を求めてもよいし、いずれかの分類結果情報に含まれる捜索対象者2が第2カメラ21に撮像された確率、時間及び移動速度、並びに第2カメラ21が設置されている位置に基づいて、現在捜索対象者2が存在し得る範囲を推定して求めるようにしてもよい。 Note that the target range identification unit 302 may obtain the maximum range estimated from the time when the search target person 2 left the building and the moving speed, or the search target person 2 included in any of the classification result information. is imaged by the second camera 21, the time and moving speed, and the position where the second camera 21 is installed, the range in which the search target person 2 can currently exist can be estimated and obtained. good.

図10は、本実施形態に係る管理装置の処理を示すフローチャートである。まず、分類結果取得部301が、クラウドサーバ100から分類結果情報の取得指示を受信する(S1)。受信した取得指示にしたがってクラウドサーバ100から分類結果情報を取得する(S2)。対象範囲特定部302が、捜索対象者2の存在する最大範囲を推定する(S3)。マップ生成部303が、取得した分類結果情報及び推定した最大範囲に基づいて、マップを生成する(S4)。表示制御部304が、ディスプレイ31に生成したマップを表示する(S5)。捜索対象者2が見つかるまでS1~S5の処理が繰り返して行われる。 FIG. 10 is a flowchart showing processing of the management device according to this embodiment. First, the classification result acquisition unit 301 receives an instruction to acquire classification result information from the cloud server 100 (S1). Classification result information is acquired from the cloud server 100 according to the received acquisition instruction (S2). The target range identification unit 302 estimates the maximum range in which the search target person 2 exists (S3). The map generator 303 generates a map based on the acquired classification result information and the estimated maximum range (S4). The display control unit 304 displays the generated map on the display 31 (S5). The processes of S1 to S5 are repeated until the search target person 2 is found.

ここで、マップ生成処理を一例を示して詳細に説明する。図11は、分類結果情報を取得してマップ表示するまでの具体的な処理の一例を示すフローチャート、図12は、表示されたマップの一例を示す図である。まず、捜索対象者2が外出した時間から、対象となる分類結果情報を抽出する(S1)。つまり、捜索対象者2が外出する前の分類結果情報は参考にならないため、捜索対象者2の退出時間から現在時刻までの間の分類結果情報のみを処理対象とする。抽出された分類結果情報に含まれる第2カメラ21を個別に識別するためのカメラIDと、予め登録されている第2カメラ21のカメラID及び位置情報(例えば、緯度及び経度の情報)が記憶された第2カメラ情報とを紐づける(S2)。分類結果情報に含まれるカメラIDの位置情報を第2カメラ情報から取得し、マップ上にマーカを立てる(S3)。分類結果情報に含まれる一致度を演算し、一致度が所定の値以上である場合にマーカを強調表示に設定する(S4)。分類結果情報に対応する第2カメラ21の位置情報と、対象範囲特定部302が推定した最大範囲とに基づいて、第2カメラ21が最大範囲内であれば、捜索対象者2の居住地から当該第2カメラ21の位置までマップ上に線を引く(S5)。生成されたマップを表示する(S6)。なお、マーカを立てる位置は、第2カメラ21の設置位置に限定されず、例えば第2カメラ21の設置向きと撮像された情報とに基づいて推定される捜索対象者の位置であってもよい。 Here, an example of map generation processing will be described in detail. FIG. 11 is a flowchart showing an example of specific processing from acquisition of classification result information to map display, and FIG. 12 is a diagram showing an example of the displayed map. First, target classification result information is extracted from the time when the search target person 2 goes out (S1). That is, since the classification result information before the search target person 2 leaves the house is not helpful, only the classification result information from the time when the search target person 2 leaves until the current time is processed. The camera ID for individually identifying the second camera 21 included in the extracted classification result information, and the pre-registered camera ID and position information (for example, latitude and longitude information) of the second camera 21 are stored. The obtained second camera information is linked (S2). The position information of the camera ID included in the classification result information is acquired from the second camera information, and a marker is placed on the map (S3). The matching degree included in the classification result information is calculated, and if the matching degree is equal to or greater than a predetermined value, the marker is set to be highlighted (S4). Based on the position information of the second camera 21 corresponding to the classification result information and the maximum range estimated by the target range identification unit 302, if the second camera 21 is within the maximum range, A line is drawn on the map to the position of the second camera 21 (S5). Display the generated map (S6). Note that the position where the marker is placed is not limited to the installation position of the second camera 21, and may be, for example, the position of the search target estimated based on the installation orientation of the second camera 21 and the imaged information. .

捜索者は、図12に示すようなマップの特に線(図12においては一点鎖線で示す)が引かれた箇所における分類結果情報や第2カメラ21の撮像情報を参照することで、捜索対象者2を特定しやすくなる。図12において、退出地点(黒丸)を起点にして、各第2カメラ21で撮像された人物の分類結果として捜索対象者2との一致度が算出されて表示されている。図12の場合は、カメラ(1)、(2)、(4)及び(6)にて人物が撮像され、それぞれの人物が捜索対象者2である確率が表示されている。この中でカメラ(2)で撮像された人物は捜索対象者2である確率が95%となっており、カメラ(2)と起点とを結ぶ線(一点鎖線)及びマーカ(星マーク)が強調表示されている。捜索者は図12のような表示画面を確認し、カメラ(2)で撮像された人物を最優先に確保するようアクションを起こすことが可能となる。 The searcher refers to the classification result information and the imaging information of the second camera 21 in the map as shown in FIG. 2 is easier to identify. In FIG. 12 , with the exit point (black circle) as the starting point, the degree of matching with the search target person 2 is calculated and displayed as the classification result of the person imaged by each second camera 21 . In the case of FIG. 12, persons are imaged by cameras (1), (2), (4) and (6), and the probability that each person is the search target person 2 is displayed. Among them, the person captured by camera (2) has a probability of 95% being search target person 2, and the line (chain line) connecting camera (2) and the starting point and the marker (star mark) are emphasized. is displayed. The searcher can confirm the display screen as shown in FIG. 12 and take action to secure the person imaged by the camera (2) with the highest priority.

なお、上述したように、図12のマップを確認することでカメラに撮像された人物と捜索対象者2との一致度を瞬時に視認することが可能となるが、これ以外にも表示機能を追加することができる。例えば、カメラ(2)に撮像された動画像を分析することで、撮像された人物がカメラ(2)に対してどのような方角にどれくらいの速度で移動したかを演算することが可能となる。すなわち、現時点における前記人物の位置を推定することが可能となり、図12の場合は、コンビニのカメラ(2)の動画像から、人物が北方向に向かった確率が30%、南方向に向かった確率が70%と計算されて表示されている。 As described above, by checking the map in FIG. 12, it is possible to instantly visually recognize the degree of matching between the person imaged by the camera and the person to be searched 2. In addition to this, a display function is also provided. can be added. For example, by analyzing the moving image captured by the camera (2), it is possible to calculate in what direction and at what speed the captured person moved with respect to the camera (2). . That is, it is possible to estimate the position of the person at the present time, and in the case of FIG. The probability is calculated and displayed as 70%.

また、各カメラで撮像された人物が捜索対象者2である割合と撮像時間とから、捜索対象者2の移動経路(図12においては点線で示す)を予測することが可能である。また、当該移動経路と上述した動画像の分析とから今後の予測移動経路(図12においては太線で示す)及び推定現在地を演算することも可能である。 In addition, it is possible to predict the moving route of the search target person 2 (indicated by the dotted line in FIG. 12) from the proportion of the person imaged by each camera being the search target person 2 and the imaging time. It is also possible to calculate a predicted future travel route (indicated by a thick line in FIG. 12) and an estimated current location from the travel route and the analysis of the moving image described above.

さらに、各カメラにおけるマーカや線の表示態様を経過時間に応じて異ならせるようにしてもよい。例えば、捜索対象者2である確率が100%の人物が5時間前に撮像された撮像情報と、捜索対象者2である確率が80%の人物が1分前に撮像された撮像情報とでは、捜索対象者2が移動したことを考慮すると、後者に撮像された撮像情報の方が現時点における捜索対象者2の位置を示す情報である信憑性が高いと判断することができる。そのような場合は、例えば確率が100%であってもこのカメラのマーカや線を強調表示をするのではなく、寧ろ確率が80%の方のマーカや線を強調表示するようにしてもよい。 Furthermore, the display mode of markers and lines in each camera may be changed according to the elapsed time. For example, image information obtained by imaging a person who has a 100% probability of being search target person 2 five hours ago and image information obtained by imaging a person who has an 80% probability of being search target person 2 one minute ago. Considering that the search target person 2 has moved, it can be determined that the image information captured in the latter is more credible as information indicating the current position of the search target person 2 . In such a case, for example, even if the probability is 100%, the marker or line of this camera may not be highlighted, but rather the marker or line with the probability of 80% may be highlighted. .

以上のように、本実施形態に係る対象者推定システムにおいては、捜索対象者2ごとに当該捜索対象者2を特定する分類器を生成し、任意の場所に設置されている第2カメラ21に関連付けられた監視制御装置22に対して生成した分類器を送信するため、捜索対象者2自身の個人情報が特定されるような画像などの情報を第3者に公開することなく分類器のみを配布することで、第2カメラ21に撮像される人物を特定することができる。 As described above, in the target person estimation system according to the present embodiment, a classifier for specifying the search target person 2 is generated for each search target person 2, and the second camera 21 installed at an arbitrary location Since the generated classifier is transmitted to the associated monitor control device 22, only the classifier is sent without disclosing information such as an image that identifies the personal information of the search target person 2 to a third party. By distributing it, the person photographed by the second camera 21 can be specified.

また、分類器生成装置12で生成された分類器による分類結果情報を受信し、受信した分類結果情報に基づいて捜索対象者2の位置を特定し、特定した捜索対象者2の位置の結果を出力することで、任意の箇所に設置されている第2カメラ21で撮像された捜索対象者2の位置を容易に確認し、捜索することが可能になる。 Further, it receives classification result information by the classifier generated by the classifier generation device 12, identifies the position of the search target person 2 based on the received classification result information, and obtains the result of the identified position of the search target person 2. By outputting, it becomes possible to easily confirm the position of the person to be searched 2 imaged by the second camera 21 installed at an arbitrary location, and to search.

さらに、捜索対象者2の移動速度に基づいて、当該捜索対象者2が存在する範囲を特定することで、捜索範囲を絞って捜索作業を簡素化することができる。 Furthermore, by specifying the range in which the search target person 2 exists based on the moving speed of the search target person 2, the search range can be narrowed down and the search work can be simplified.

さらにまた、表示制御部304が、任意の場所に設置されている第2カメラ21の場所、又は当該第2カメラ21の撮像情報から推定される捜索対象者2の場所をマップ上で表示すると共に、当該各第2カメラ21に関連付けられた監視制御装置22が分類器で分類した分類結果情報を第2カメラ21の場所、又は推定される前記対象者の場所と対応付けて表示することで、マップ上でどの第2カメラ21がどのような撮像対象を撮像したかを瞬時に確認して、捜索対象者2らしい人物の有無を確認することができる。 Furthermore, the display control unit 304 displays the location of the second camera 21 installed at an arbitrary location or the location of the search target person 2 estimated from the imaging information of the second camera 21 on the map. , the classification result information classified by the classifier by the monitoring control device 22 associated with each second camera 21 is displayed in association with the location of the second camera 21 or the estimated location of the subject, It is possible to instantly confirm which second camera 21 has captured what kind of imaging target on the map, and to confirm the presence or absence of a person who seems to be the search target person 2 .

さらにまた、表示制御部304が、分類結果情報を第2カメラ21で撮像された人物が捜索対象者2である可能性を示す割合で演算され、当該割合が所定の値以上である場合に他の分類結果情報と異なる態様で表示することで、捜索対象者2らしい人物の位置情報をマップ上で容易に視認することが可能になる。 Furthermore, the display control unit 304 calculates the classification result information with a ratio indicating the possibility that the person imaged by the second camera 21 is the search target person 2, and if the ratio is equal to or greater than a predetermined value, the other By displaying in a manner different from the classification result information of 1, it is possible to easily visually recognize the position information of a person who seems to be the search target person 2 on the map.

1 対象者推定システム
2 捜索対象者
10 分類器生成システム
11 第1カメラ
12 分類器生成装置
20 監視カメラシステム
21 第2カメラ
22 監視制御装置
30 管理装置
31 ディスプレイ
41 CPU
42 RAM
43 ROM
44 ハードディスク
45 通信I/F
46 入出力I/F
100 クラウドサーバ
121 撮像情報入力部
122 撮像情報記憶部
123 教師データ作成部
124 分類器生成部
125 重み情報記憶部
126 データ送信部
221 重み情報取得部
222 撮像情報入力部
223 画像処理部
224 分類処理部
225 データ送信部
301 分類結果取得部
302 対象範囲特定部
303 マップ生成部
304 表示制御部

1 Target person estimation system 2 Search target person 10 Classifier generation system 11 First camera 12 Classifier generation device 20 Surveillance camera system 21 Second camera 22 Monitoring control device 30 Management device 31 Display 41 CPU
42 RAM
43 ROMs
44 hard disk 45 communication I/F
46 input/output I/F
100 cloud server 121 image information input unit 122 image information storage unit 123 teacher data creation unit 124 classifier generation unit 125 weight information storage unit 126 data transmission unit 221 weight information acquisition unit 222 image information input unit 223 image processing unit 224 classification processing unit 225 data transmission unit 301 classification result acquisition unit 302 target range identification unit 303 map generation unit 304 display control unit

Claims (8)

対象者が滞在している施設の出入口付近に設置され、前記対象者の退出時の髪形及び服装を含む特徴を撮像する一の撮像手段と、
前記一の撮像手段で撮像された撮像情報に基づいて深層学習を行い、前記対象者ごとに当該対象者を分類する分類器を生成する分類器生成手段と、
前記施設の外部における異なる複数の場所にそれぞれ設置されている他の撮像手段に関連付けられた制御装置を、当該制御装置に関連付けられた前記他の撮像手段が撮像した人物が前記施設に滞在する前記対象者であるかどうかを分類できる前記分類器として利用可能となるように、前記対象者の特徴を深層学習した結果得られた前記分類器の重み情報のみを選別し、前記対象者個人を特定する特徴情報、前記対象者個人のプライバシーに関する情報及び前記一の撮像手段が撮像した前記対象者の外観を示す情報を排除して前記施設の外部における前記制御装置に送信する分類器送信手段と、を備えることを特徴とする分類器生成装置。
one image capturing means installed near the entrance of the facility where the subject is staying and capturing the features including the hairstyle and clothes of the subject when leaving;
a classifier generating means for performing deep learning based on the imaging information captured by the one imaging means and generating a classifier for classifying the subject for each subject;
The person staying in the facility captured the image of the control device associated with the other imaging means installed at a plurality of different locations outside the facility by the other imaging means associated with the control device. Only the weight information of the classifier obtained as a result of deep learning the characteristics of the subject is selected so that it can be used as the classifier that can classify whether the subject is a subject or not, and the subject individual is specified. a classifier transmitting means for transmitting to the control device outside the facility after excluding the characteristic information, the information regarding the individual privacy of the subject, and the information indicating the appearance of the subject imaged by the one imaging means; A classifier generation device comprising:
請求項1に記載の分類器生成装置で生成された前記分類器が前記制御装置で利用された結果を検出結果情報として受信する検出結果情報受信手段と、
受信した前記検出結果情報に基づいて、前記対象者の位置を特定する位置特定手段と、
特定した前記対象者の位置の結果を出力する出力制御手段とを備えることを特徴とする対象者推定装置。
A detection result information receiving means for receiving, as detection result information, a result of using the classifier generated by the classifier generation device according to claim 1 in the control device;
Position specifying means for specifying the position of the subject based on the received detection result information;
and output control means for outputting a position result of the identified target person.
請求項2に記載の対象者推定装置において、
前記対象者の移動速度に基づいて、当該対象者が存在する範囲を特定する範囲特定手段を備える対象者推定装置。
In the subject estimation device according to claim 2,
A subject estimating device comprising range identifying means for identifying a range in which the subject exists based on the moving speed of the subject.
請求項2又は3に記載の対象者推定装置において、
前記出力制御手段が、
前記施設の外部における異なる複数の場所にそれぞれ設置されている前記他の撮像手段の場所、又は当該他の撮像手段の撮像情報から推定される前記対象者の場所をマップ上で表示すると共に、当該各他の撮像手段に関連付けられた前記制御装置が前記分類器で分類した前記検出結果情報を前記他の撮像手段の場所、又は推定される前記対象者の場所と対応付けて表示する対象者推定装置。
In the subject estimation device according to claim 2 or 3,
The output control means is
displaying on a map the locations of the other imaging means respectively installed at a plurality of different locations outside the facility , or the location of the subject estimated from the imaging information of the other imaging means; Subject estimation for displaying the detection result information classified by the classifier by the control device associated with each other imaging means in association with the location of the other imaging means or the estimated location of the subject. Device.
請求項4に記載の対象者推定装置において、
前記出力制御手段が、
前記検出結果情報に基づいて前記他の撮像手段で撮像された人物が前記対象者である可能性を示す割合で演算され、当該割合が所定の値以上である場合に他の検出結果情報と異なる態様で表示する対象者推定装置。
In the subject estimation device according to claim 4,
The output control means is
Based on the detection result information, a ratio indicating the possibility that the person imaged by the other imaging means is the target person is calculated, and when the ratio is a predetermined value or more, it is different from the other detection result information A subject estimation device displayed in a form.
対象者が滞在している施設の出入口付近に設置され、前記対象者の退出時の髪形及び服装を含む特徴を撮像する一の撮像手段と、
前記一の撮像手段で撮像された撮像情報に基づいて深層学習を行い、前記対象者ごとに当該対象者を分類する分類器を生成する分類器生成手段と、
前記施設の外部における異なる複数の場所にそれぞれ設置されている他の撮像手段に関連付けられた制御装置を、当該制御装置に関連付けられた前記他の撮像手段が撮像した人物が前記施設に滞在する前記対象者であるかどうかを分類できる前記分類器として利用可能となるように、前記対象者の特徴を深層学習した結果得られた前記分類器の重み情報のみを選別し、前記対象者個人を特定する特徴情報、前記対象者個人のプライバシーに関する情報及び前記一の撮像手段が撮像した前記対象者の外観を示す情報を排除して前記施設の外部における前記制御装置に送信する分類器送信手段と、
送信された前記分類器の重み情報に基づく検出結果情報を受信する検出結果情報受信手段と、
受信した前記検出結果情報に基づいて、前記対象者の位置を演算する演算手段と、
演算した結果を出力する出力制御手段とを備えることを特徴とする対象者推定システム。
one image capturing means installed near the entrance of the facility where the subject is staying and capturing the features including the hairstyle and clothes of the subject when leaving;
a classifier generating means for performing deep learning based on the imaging information captured by the one imaging means and generating a classifier for classifying the subject for each subject;
The person staying in the facility captured the image of the control device associated with the other imaging means installed at a plurality of different locations outside the facility by the other imaging means associated with the control device. Only the weight information of the classifier obtained as a result of deep learning the characteristics of the subject is selected so that it can be used as the classifier that can classify whether the subject is a subject or not, and the subject individual is specified. a classifier transmitting means for transmitting to the control device outside the facility after excluding the characteristic information, the information regarding the individual privacy of the subject, and the information indicating the appearance of the subject imaged by the one imaging means;
detection result information receiving means for receiving detection result information based on the transmitted weight information of the classifier;
computing means for computing the position of the subject based on the received detection result information;
and output control means for outputting the result of calculation.
対象者が滞在している施設の出入口付近に設置され、前記対象者の退出時の髪形及び服装を含む特徴を撮像する一の撮像手段で撮像された撮像情報に基づいて深層学習を行い、前記対象者ごとに当該対象者を分類する分類器を生成する分類器生成手段、
前記施設の外部における異なる複数の場所にそれぞれ設置されている他の撮像手段に関連付けられた制御装置を、当該制御装置に関連付けられた前記他の撮像手段が撮像した人物が前記施設に滞在する前記対象者であるかどうかを分類できる前記分類器として利用可能となるように、前記対象者の特徴を深層学習した結果得られた前記分類器の重み情報のみを選別し、前記対象者個人を特定する特徴情報、前記対象者個人のプライバシーに関する情報及び前記一の撮像手段が撮像した前記対象者の外観を示す情報を排除して前記施設の外部における前記制御装置に送信する分類器送信手段としてコンピュータを機能させることを特徴とする分類器生成プログラム。
Deep learning is performed based on image information captured by one imaging means installed near the entrance of the facility where the subject is staying and capturing features including the hairstyle and clothing of the subject when leaving the subject, and performing deep learning. classifier generation means for generating a classifier for classifying the subject for each subject;
The person staying in the facility captured the image of the control device associated with the other imaging means installed at a plurality of different locations outside the facility by the other imaging means associated with the control device. Only the weight information of the classifier obtained as a result of deep learning the characteristics of the subject is selected so that it can be used as the classifier that can classify whether the subject is a subject or not, and the subject individual is specified. a computer as a classifier transmission means for transmitting to the control device outside the facility after excluding the characteristic information, the information regarding the individual privacy of the subject, and the information indicating the appearance of the subject imaged by the one imaging means A classifier generation program characterized by functioning.
請求項7に記載の分類器生成プログラムがコンピュータを動作させることで生成された前記分類器が前記制御装置で利用された結果を検出結果情報として受信する検出結果情報受信手段、
受信した前記検出結果情報に基づいて、前記対象者の位置を特定する位置特定手段、
特定した前記対象者の位置の結果を出力する出力制御手段としてコンピュータを機能させる対象者推定プログラム。
Detection result information receiving means for receiving, as detection result information, a result of the use of the classifier generated by the classifier generation program according to claim 7 operating a computer in the control device;
Position specifying means for specifying the position of the subject based on the received detection result information;
A target person estimation program that causes a computer to function as output control means for outputting the position result of the specified target person.
JP2018247439A 2018-12-28 2018-12-28 Classifier generation device, target person estimation device and their programs, and target person estimation system Active JP7285536B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018247439A JP7285536B2 (en) 2018-12-28 2018-12-28 Classifier generation device, target person estimation device and their programs, and target person estimation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018247439A JP7285536B2 (en) 2018-12-28 2018-12-28 Classifier generation device, target person estimation device and their programs, and target person estimation system

Publications (2)

Publication Number Publication Date
JP2020107213A JP2020107213A (en) 2020-07-09
JP7285536B2 true JP7285536B2 (en) 2023-06-02

Family

ID=71449167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018247439A Active JP7285536B2 (en) 2018-12-28 2018-12-28 Classifier generation device, target person estimation device and their programs, and target person estimation system

Country Status (1)

Country Link
JP (1) JP7285536B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003324720A (en) 2002-05-07 2003-11-14 Matsushita Electric Ind Co Ltd Supervisory system and supervisory camera
JP2008217768A (en) 2007-02-28 2008-09-18 Mitsubishi Electric Research Laboratories Inc Method for adapting boosted classifier to new sample
JP2009098774A (en) 2007-10-15 2009-05-07 Mitsubishi Electric Corp Person tracking system, person tracking method and person tracking program
JP2009217448A (en) 2008-03-10 2009-09-24 Mitsubishi Electric Corp Human tracking system using image information
JP2009538558A (en) 2006-05-22 2009-11-05 アクシス アクチボラグ Method and apparatus for identifying characteristics of an object detected by a video surveillance camera
JP2015191597A (en) 2014-03-28 2015-11-02 三菱重工業株式会社 Suspicious person handling apparatus, suspicious person handling method and program
JP2018207222A (en) 2017-05-31 2018-12-27 パナソニックIpマネジメント株式会社 Camera and parameter registration method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003324720A (en) 2002-05-07 2003-11-14 Matsushita Electric Ind Co Ltd Supervisory system and supervisory camera
JP2009538558A (en) 2006-05-22 2009-11-05 アクシス アクチボラグ Method and apparatus for identifying characteristics of an object detected by a video surveillance camera
JP2008217768A (en) 2007-02-28 2008-09-18 Mitsubishi Electric Research Laboratories Inc Method for adapting boosted classifier to new sample
JP2009098774A (en) 2007-10-15 2009-05-07 Mitsubishi Electric Corp Person tracking system, person tracking method and person tracking program
JP2009217448A (en) 2008-03-10 2009-09-24 Mitsubishi Electric Corp Human tracking system using image information
JP2015191597A (en) 2014-03-28 2015-11-02 三菱重工業株式会社 Suspicious person handling apparatus, suspicious person handling method and program
JP2018207222A (en) 2017-05-31 2018-12-27 パナソニックIpマネジメント株式会社 Camera and parameter registration method

Also Published As

Publication number Publication date
JP2020107213A (en) 2020-07-09

Similar Documents

Publication Publication Date Title
US10812761B2 (en) Complex hardware-based system for video surveillance tracking
JP6905850B2 (en) Image processing system, imaging device, learning model creation method, information processing device
JP5339476B2 (en) Image processing system, fever tracking method, image processing apparatus, control method thereof, and control program
JP6814673B2 (en) Movement route prediction device and movement route prediction method
JP2022082561A (en) Analysis server, monitoring system, monitoring method, and program
CN108734055A (en) A kind of exception personnel detection method, apparatus and system
WO2018179202A1 (en) Information processing device, control method, and program
EP3349142B1 (en) Information processing device and method
JP7052305B2 (en) Relief systems and methods, as well as the servers and programs used for them.
JP7145622B2 (en) Information processing device, information processing device control method, subject detection system, and program
JP2005086626A (en) Wide area monitoring device
JP6744652B1 (en) Congestion information notification system
JP2022003526A (en) Information processor, detection system, method for processing information, and program
JP7285536B2 (en) Classifier generation device, target person estimation device and their programs, and target person estimation system
JP2019121176A (en) Position specifying apparatus, position specifying method, position specifying program, and camera apparatus
CN110073364A (en) Object detection systems and its method based on RGBD sensing
JP2014215747A (en) Tracking device, tracking system, and tracking method
JP7210163B2 (en) Image processing device, image processing method and program
JP2021056869A (en) Facility user management system
Rachna et al. Real-time violence detection using deep neural networks and DTW
US20240046612A1 (en) Fusion-based sensing intelligence and reporting
TWI730795B (en) Multi-target human body temperature tracking method and system
Rothmeier et al. Comparison of Machine Learning and Rule-based Approaches for an Optical Fall Detection System
CN113628237A (en) Trajectory tracking method, system, electronic device and computer readable medium
CN112699798A (en) Traffic police action recognition method and device with vehicle-road cooperation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211027

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20211027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20211027

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230516

R150 Certificate of patent or registration of utility model

Ref document number: 7285536

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150