JP2011003138A - Person identification system, person identification method, person identification device and person identification program - Google Patents

Person identification system, person identification method, person identification device and person identification program Download PDF

Info

Publication number
JP2011003138A
JP2011003138A JP2009147742A JP2009147742A JP2011003138A JP 2011003138 A JP2011003138 A JP 2011003138A JP 2009147742 A JP2009147742 A JP 2009147742A JP 2009147742 A JP2009147742 A JP 2009147742A JP 2011003138 A JP2011003138 A JP 2011003138A
Authority
JP
Japan
Prior art keywords
person
area
persons
operated
operation object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009147742A
Other languages
Japanese (ja)
Inventor
Takayuki Nibu
隆之 丹生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2009147742A priority Critical patent/JP2011003138A/en
Publication of JP2011003138A publication Critical patent/JP2011003138A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To identify one person operating an operation object even two or more persons are included in an image acquired by a sensor, and to associate the image of the specified person with an identifier of the person.SOLUTION: The person identification system includes: an operation object 1; a sensor 2 acquiring the image of an area where the operation object 1 can be operated; and a person identification device 3 associating the image of the person having operated the operation object 1 with the identifier of the person. The person identification device 3 includes: an object operation detection means 4 detecting that the operation object 1 is operated, and/or an operated position of the operation object 1; and a person identification means 5 that detects the number of the persons included in the image when the operation object 1 is operated, identifies, when one person is included, the person who operates the operation object 1, and identifies, when two or more persons are included, one of the two or more persons, who operates the operation object 1.

Description

本発明は、操作対象物を操作した人物の映像と人物の識別子とを紐付ける人物識別システム、人物識別方法、人物識別装置及び人物識別プログラムに関する。   The present invention relates to a person identification system, a person identification method, a person identification apparatus, and a person identification program for associating a video of a person who has operated an operation target with a person identifier.

一般に、操作対象物を操作した人物の映像と人物の識別子とを紐付ける人物識別システムが知られている(例えば、特許文献1、2参照)。
例えば、特許文献1に示される人物識別システム(人物追跡装置)は、図13に示すように、ID読取装置101と、人物を撮影するセンサ102と、人物の特徴情報を抽出する特徴情報抽出手段103と、人物の識別情報を取得する識別情報取得手段104と、識別情報と特徴情報を関連付ける特徴学習手段105とから構成されている。
In general, there is known a person identification system that associates an image of a person who operates an operation target with an identifier of the person (for example, see Patent Documents 1 and 2).
For example, as shown in FIG. 13, a person identification system (person tracking device) disclosed in Patent Document 1 includes an ID reading device 101, a sensor 102 for photographing a person, and feature information extracting means for extracting person feature information. 103, identification information acquisition means 104 for acquiring person identification information, and feature learning means 105 for associating identification information with feature information.

このような構成を有する人物識別システムは、以下のように動作する。
まず、システムの利用者がID読取装置101にIDカードを近づけると、ID読取装置101によってIDが読み取られ、これが識別情報取得手段104によって取得される。
同時に、センサ102によって所定の範囲の映像が取得され、特徴情報抽出手段103によって特徴量が抽出される。
このとき、センサ102により取得された映像には1人の人物が撮影されていることを前提として、ID読取装置101を操作した人物を特定している。
The person identification system having such a configuration operates as follows.
First, when a system user brings an ID card close to the ID reader 101, the ID is read by the ID reader 101 and acquired by the identification information acquisition unit 104.
At the same time, an image in a predetermined range is acquired by the sensor 102, and a feature amount is extracted by the feature information extraction unit 103.
At this time, the person who operated the ID reading device 101 is specified on the assumption that one person is photographed in the video acquired by the sensor 102.

次いで、特徴学習手段105によってIDと撮影された人物の特徴量の結びつけを行い、センサ102で取得された人物の映像とIDの紐付けを行う。
この紐付けを行うことにより、ある領域内を移動する人物の映像が誰であるかを特定することができ、その領域へ入退している人物を特定することが可能になる。
Next, the feature learning unit 105 associates the ID with the feature amount of the photographed person, and associates the ID of the person image acquired by the sensor 102 with the ID.
By performing this association, it is possible to identify who is the video of the person who moves within a certain area, and it is possible to identify the person who has entered or exited that area.

また、このような人物識別技術は、例えば、特許文献3に示されるように、人物同士がある領域で出会い、会話のきっかけを提供するシステムに適用することが考えられる。
具体的には、ディスプレイの前に来た人物は、ID読取装置にIDカードをタッチして、ディスプレイに自分の属性情報を表示させる。このとき、上述のような人物特定技術によってタッチした人物を特定し、その人物がその領域を出た際にはディスプレイに表示したその人物の属性情報を消去することができる。
Further, for example, as shown in Patent Document 3, such a person identification technique can be applied to a system in which persons meet in a certain area and provide an opportunity for conversation.
Specifically, the person who came in front of the display touches the ID card on the ID reading device to display his / her attribute information on the display. At this time, the person touched by the person specifying technique as described above is specified, and when the person leaves the area, the attribute information of the person displayed on the display can be deleted.

特開2008−299742号公報JP 2008-299742 A 特開2009−009397号公報JP 2009-009397 A 特開2001−195430号公報JP 2001-195430 A

しかしながら、特許文献1に記載の人物識別システムでは、センサによって取得される映像に含まれる人物の数が1であることを前提としており、図14に示すようにセンサで取得された映像に含まれる人物の数が2以上の場合には、操作対象物(特許文献1ではID読取装置)をどの人物が操作したかがわからず、結果的にそれぞれの人物を特定することができないという問題があった。   However, in the person identification system described in Patent Document 1, it is assumed that the number of persons included in the video acquired by the sensor is 1, and is included in the video acquired by the sensor as shown in FIG. When the number of persons is two or more, there is a problem in that it is impossible to determine which person has operated the operation target (ID reading device in Patent Document 1), and as a result, each person cannot be specified. It was.

本発明の目的は、上述した課題である、センサで取得された映像に含まれる人物の数が2以上の場合においても、操作対象物を操作している1の人物を特定し、特定した人物の映像と人物の識別子とを紐付けることができるという課題を解決する人物識別システム、人物識別方法、人物識別装置及び人物識別プログラムの提供を目的とする。   The object of the present invention is to identify one person who is operating the operation target even when the number of persons included in the image acquired by the sensor, which is the problem described above, is two or more. It is an object of the present invention to provide a person identification system, a person identification method, a person identification device, and a person identification program that can solve the problem of being able to associate an image of a person with an identifier of a person.

上記目的を達成するため本発明の人物識別システムは、操作対象物と、前記操作対象物を操作可能な領域の映像を取得するセンサと、前記操作対象物を操作した人物の映像と人物の識別子とを紐付ける人物識別装置とを備え、前記人物識別装置が、前記操作対象物が操作されたこと、及び/又は、前記操作対象物の***作位置を検出する対象物操作検出手段と、前記操作対象物が操作されたとき、前記映像に含まれる人物の数を検出し、前記人物の数が1の場合に、その人物が前記操作対象物を操作している人物であると特定し、前記人物の数が2以上の場合に、2以上の人物から前記操作対象物を操作している1の人物を特定する人物特定手段と、を備える構成としてある。   In order to achieve the above object, a person identification system according to the present invention includes an operation target, a sensor that acquires an image of a region in which the operation target can be operated, a video of a person who operates the operation target, and a person identifier. A person identification device, and the person identification device detects that the operation object has been operated and / or an object operation detection means for detecting an operated position of the operation object, When the operation target is operated, the number of persons included in the video is detected, and when the number of persons is 1, the person is identified as the person operating the operation target; When the number of persons is 2 or more, the apparatus includes a person specifying unit that specifies one person who is operating the operation target object from two or more persons.

また、本発明の人物識別方法は、操作対象物と、前記操作対象物を操作可能な領域の映像を取得するセンサと、前記操作対象物を操作した人物の映像と人物の識別子とを紐付ける人物識別装置とを用い、前記人物識別装置に、前記操作対象物が操作されたこと、及び/又は、前記操作対象物の***作位置を検出する対象物操作検出手順と、前記操作対象物が操作されたとき、前記映像に含まれる人物の数を検出し、前記人物の数が1の場合に、その人物が前記操作対象物を操作している人物であると特定し、前記人物の数が2以上の場合に、2以上の人物から前記操作対象物を操作している1の人物を特定する人物特定手順と、を実行させる方法としてある。   In the person identification method of the present invention, the operation target, a sensor that acquires an image of a region in which the operation target can be operated, and the video of the person who operated the operation target are associated with the person identifier. The person identification device is used, and the person identification device is operated by the object to be operated and / or the object operation detection procedure for detecting the operation position of the object to be operated, and the operation object is When operated, the number of persons included in the video is detected, and when the number of persons is 1, the person is identified as the person operating the operation target, and the number of persons Is a person specifying procedure for specifying one person who is operating the operation target object from two or more persons.

また、本発明の人物識別装置は、操作対象物と、前記操作対象物を操作可能な領域の映像を取得するセンサとに接続され、前記操作対象物を操作した人物の映像と人物の識別子とを紐付けるにあたり、前記操作対象物が操作されたこと、及び/又は、前記操作対象物の***作位置を検出する対象物操作検出手段と、前記操作対象物が操作されたとき、前記映像に含まれる人物の数を検出し、前記人物の数が1の場合に、その人物が前記操作対象物を操作している人物であると特定し、前記人物の数が2以上の場合に、2以上の人物から前記操作対象物を操作している1の人物を特定する人物特定手段と、を備える構成としてある。   Further, the person identification device of the present invention is connected to an operation target and a sensor that acquires an image of a region in which the operation target can be operated, and an image of a person who operates the operation target and a person identifier When the operation object is operated and / or object operation detection means for detecting the operation position of the operation object, and when the operation object is operated, the image is displayed. When the number of persons included is detected and the number of persons is 1, the person is identified as the person who is operating the operation target, and when the number of persons is 2 or more, 2 And a person specifying means for specifying one person who is operating the operation target from the above persons.

また、本発明の人物識別プログラムは、操作対象物と、前記操作対象物を操作可能な領域の映像を取得するセンサとに接続され、前記操作対象物を操作した人物の映像と人物の識別子とを紐付けるコンピュータを動作させるにあたり、前記コンピュータを、前記操作対象物が操作されたこと、及び/又は、前記操作対象物の***作位置を検出する対象物操作検出手段、前記操作対象物が操作されたとき、前記映像に含まれる人物の数を検出し、前記人物の数が1の場合に、その人物が前記操作対象物を操作している人物であると特定し、前記人物の数が2以上の場合に、2以上の人物から前記操作対象物を操作している1の人物を特定する人物特定手段、として機能させる構成としてある。   The person identification program of the present invention is connected to an operation object and a sensor that acquires an image of a region in which the operation object can be operated, and includes an image of a person who operates the operation object, a person identifier, When operating the computer associated with the operation object, the operation object is detected by the operation object and / or the operation position of the operation object is detected, and the operation object is operated by the operation object. The number of persons included in the video is detected, and when the number of persons is 1, the person is identified as the person operating the operation target, and the number of persons is In the case of two or more, it is configured to function as a person specifying unit that specifies one person who is operating the operation target object from two or more persons.

本発明によれば、センサで取得された映像に含まれる人物の数が2以上の場合においても、操作対象物を操作している1の人物を特定し、特定した人物の映像と人物の識別子とを紐付けることができる。   According to the present invention, even when the number of persons included in the video acquired by the sensor is two or more, one person who is operating the operation target is specified, and the video of the specified person and the identifier of the person are identified. Can be linked.

本発明の第一実施形態に係る人物識別システムの概略構成を示すブロック図である。It is a block diagram showing a schematic structure of a person identification system concerning a first embodiment of the present invention. 本発明の第一実施形態に係る人物識別システムの具体的な構成を示すブロック図である。It is a block diagram which shows the specific structure of the person identification system which concerns on 1st embodiment of this invention. 本発明の第一実施形態に係る人物識別システムの動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure of the person identification system which concerns on 1st embodiment of this invention. 本発明の第一実施形態に係る人物識別システムの変形例を示すブロック図である。It is a block diagram which shows the modification of the person identification system which concerns on 1st embodiment of this invention. 本発明の第一実施形態に係る人物識別システムの変形例の動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure of the modification of the person identification system which concerns on 1st embodiment of this invention. 本発明の第一実施形態に係る人物識別システムの利用状況を示す説明図である。It is explanatory drawing which shows the utilization condition of the person identification system which concerns on 1st embodiment of this invention. 本発明の第一実施形態に係る人物識別システムの別の利用状況を示す説明図である。It is explanatory drawing which shows another utilization condition of the person identification system which concerns on 1st embodiment of this invention. 本発明の第二実施形態に係る人物識別システムの具体的な構成を示すブロック図である。It is a block diagram which shows the specific structure of the person identification system which concerns on 2nd embodiment of this invention. 本発明の第二実施形態に係る人物識別システムの動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure of the person identification system which concerns on 2nd embodiment of this invention. 本発明の第二実施形態に係る人物識別システムの利用状況を示す説明図である。It is explanatory drawing which shows the utilization condition of the person identification system which concerns on 2nd embodiment of this invention. 本発明の第二実施形態に係る人物識別システムの操作確度算出方法を示す説明図である。It is explanatory drawing which shows the operation accuracy calculation method of the person identification system which concerns on 2nd embodiment of this invention. 本発明の第二実施形態に係る人物識別システムの変形例を示すブロック図である。It is a block diagram which shows the modification of the person identification system which concerns on 2nd embodiment of this invention. 参考例に係る人物識別システムの構成を示すブロック図である。It is a block diagram which shows the structure of the person identification system which concerns on a reference example. 参考例に係る人物識別システムにおいて課題が発生する状況を示す説明図である。It is explanatory drawing which shows the condition where a subject generate | occur | produces in the person identification system which concerns on a reference example.

以下、本発明に係る人物識別システム、人物識別方法、人物識別装置及び人物識別プログラムの実施形態について、図面を参照して説明する。
なお、以下に示す本発明の人物識別システム及び人物識別装置で実行される処理動作(人物識別方法)は、プログラム(ソフトウェア)の命令によりコンピュータで実行される処理,手段,機能によって実現される。
プログラムは、コンピュータの各構成要素に指令を送り、以下に示すような本発明の所定の処理、例えば、操作対象物が操作されたことや操作対象物の***作位置を検出する対象物操作検出処理、操作対象物が操作されたときに、映像に含まれる人物の数を検出して人物を特定する人物特定処理、センサの映像取得領域から、操作対象物の設置位置を基準とした一部の領域を抽出する第一の領域抽出処理、センサの映像取得領域から、操作対象物の***作位置を基準とした一部の領域を抽出する第二の領域抽出処理等の各処理・手順を行わせる。
Hereinafter, embodiments of a person identification system, a person identification method, a person identification apparatus, and a person identification program according to the present invention will be described with reference to the drawings.
The processing operation (person identification method) executed by the person identification system and person identification apparatus of the present invention described below is realized by processes, means, and functions executed by a computer in accordance with instructions of a program (software).
The program sends a command to each component of the computer and performs predetermined processing of the present invention as described below, for example, object operation detection for detecting that the operation object has been operated and the operation position of the operation object. Processing, a person identification process that identifies the person by detecting the number of people included in the image when the operation object is operated, and a part based on the installation position of the operation object from the image acquisition area of the sensor Each process / procedure such as a first area extraction process for extracting the first area, a second area extraction process for extracting a part of the area from the sensor image acquisition area based on the operated position of the operation target Let it be done.

このように、本発明における各処理や手段は、プログラムとコンピュータとが協働した具体的手段によって実現される。
なお、プログラムの全部又は一部は、例えば、磁気ディスク,光ディスク,半導体メモリ,その他任意のコンピュータで読取り可能な記録媒体により提供され、記録媒体から読み出されたプログラムがコンピュータにインストールされて実行される。また、プログラムは、記録媒体を介さず、通信回線を通じて直接にコンピュータにロードし実行することもできる。
Thus, each process and means in the present invention are realized by specific means in which the program and the computer cooperate.
Note that all or part of the program is provided by, for example, a magnetic disk, optical disk, semiconductor memory, or any other computer-readable recording medium, and the program read from the recording medium is installed in the computer and executed. The The program can also be loaded and executed directly on a computer through a communication line without using a recording medium.

[第一実施形態]
図1は、本発明の第一実施形態に係る人物識別システムの概略構成を示すブロック図である。
この図に示すように、本発明の第一実施形態に係る人物識別システムは、操作対象物1と、操作対象物1を操作可能な領域の映像を取得するセンサ2と、操作対象物1を操作した人物の映像と人物の識別子とを紐付ける人物識別装置3とを備えている。
[First embodiment]
FIG. 1 is a block diagram showing a schematic configuration of a person identification system according to the first embodiment of the present invention.
As shown in this figure, the person identification system according to the first embodiment of the present invention includes an operation object 1, a sensor 2 that acquires an image of a region in which the operation object 1 can be operated, and the operation object 1. A person identification device 3 for associating the image of the operated person with the identifier of the person.

人物識別装置3は、操作対象物1が操作されたこと、及び/又は、操作対象物1の***作位置を検出する対象物操作検出手段4と、操作対象物1が操作されたとき、映像に含まれる人物の数を検出し、人物の数が1の場合に、その人物が操作対象物1を操作している人物であると特定し、人物の数が2以上の場合に、2以上の人物から操作対象物1を操作している1の人物を特定する人物特定手段5とを備えている。
このような構成により、センサ2で取得された映像に含まれる人物の数が2以上の場合においても、操作対象物1を操作している1の人物を特定し、特定した人物の映像と人物の識別子とを紐付けることができる。
When the operation target 1 is operated and / or the object operation detection means 4 for detecting the operated position of the operation target 1 and the operation target 1 are operated, the person identification device 3 When the number of persons included in the object is detected and the number of persons is 1, it is determined that the person is operating the operation target 1, and when the number of persons is 2 or more, 2 or more Person specifying means 5 for specifying one person who is operating the operation target 1 from the person.
With such a configuration, even when the number of persons included in the image acquired by the sensor 2 is two or more, one person who is operating the operation target 1 is identified, and the image and person of the identified person are identified. Can be associated with the identifier.

つぎに、本発明の第一実施形態に係る人物識別システムの具体的な構成について、図2を参照して説明する。
図2は、本発明の第一実施形態に係る人物識別システムの具体的な構成を示すブロック図である。
この図に示すように、本発明の第一実施形態に係る人物識別システムの人物識別装置3は、上述した対象物操作検出手段4及び人物特定手段5(図1参照)を備えるとともに、人物検出手段6と、人物追跡手段7と、対象物指定手段8と、第一の領域抽出手段9と、第二の領域抽出手段10と、個人識別情報取得手段11と、個人識別情報格納手段12、個人特定手段13の各手段を備えている。
Next, a specific configuration of the person identification system according to the first embodiment of the present invention will be described with reference to FIG.
FIG. 2 is a block diagram showing a specific configuration of the person identification system according to the first embodiment of the present invention.
As shown in this figure, the person identification device 3 of the person identification system according to the first embodiment of the present invention includes the above-described object operation detection means 4 and person identification means 5 (see FIG. 1), and also detects a person. Means 6, person tracking means 7, object specifying means 8, first area extraction means 9, second area extraction means 10, personal identification information acquisition means 11, personal identification information storage means 12, Each means of the personal identification means 13 is provided.

人物検出手段6は、センサ2が取得した映像から人物を検出する手段である。
人物追跡手段7は、人物検出手段6が検出した人物を追跡する手段である。
対象物指定手段8は、センサ2の映像取得領域において操作対象物1の設置位置を指定する手段である。
第一の領域抽出手段9は、センサ2の映像取得領域から、操作対象物1の設置位置を基準とした第一の操作可能領域(第一の領域)を抽出する手段である。
第二の領域抽出手段10は、センサ2の映像取得領域から、操作対象物1の***作位置を基準とした第二の操作可能領域(第二の領域)を抽出する手段である。
The person detection means 6 is means for detecting a person from the video acquired by the sensor 2.
The person tracking means 7 is means for tracking the person detected by the person detecting means 6.
The object specifying means 8 is means for specifying the installation position of the operation object 1 in the image acquisition area of the sensor 2.
The first area extracting means 9 is a means for extracting a first operable area (first area) based on the installation position of the operation target 1 from the image acquisition area of the sensor 2.
The second area extracting means 10 is a means for extracting a second operable area (second area) based on the operated position of the operation target 1 from the image acquisition area of the sensor 2.

個人識別情報取得手段11は、特定した人物の個人識別情報を取得する手段である。
個人識別情報格納手段12は、個人識別の参照データとなる個人識別情報を予め格納する手段である。
個人特定手段13は、個人識別情報取得手段11が取得した個人識別情報と、個人識別情報格納手段12に格納された個人識別情報との類似度にもとづいて、特定した人物が誰であるかを特定する手段である。
The personal identification information acquisition means 11 is means for acquiring personal identification information of the specified person.
The personal identification information storage means 12 is means for previously storing personal identification information serving as reference data for personal identification.
The personal identification unit 13 determines who the identified person is based on the similarity between the personal identification information acquired by the personal identification information acquisition unit 11 and the personal identification information stored in the personal identification information storage unit 12. It is a means to identify.

以下、上記のような各手段を備えて構成される本実施形態に係る人物識別システムの具体的な処理・動作について、図3を参照して説明する。
図3は、本発明の第一実施形態に係る人物識別システムの動作手順を示すフローチャートである。
この図に示すように、本実施形態に係る人物識別システムの導入時においては、まず、センサ2の取得映像と対象物指定手段8により、センサ映像取得領域内における操作対象物1の設置位置が指定される(図3のステップST1)。
また、操作対象物1の設置位置が指定されると、第一の領域抽出手段9により、センサ2の映像取得領域から、操作対象物1の設置位置を基準とした第一の操作可能領域が抽出される(図3のステップST2)。
さらに、所定の個人識別情報が、個人識別情報格納手段12に格納される(図3のステップST3)。
Hereinafter, specific processes and operations of the person identification system according to the present embodiment configured by including the above-described units will be described with reference to FIG.
FIG. 3 is a flowchart showing an operation procedure of the person identification system according to the first embodiment of the present invention.
As shown in this figure, when the person identification system according to the present embodiment is introduced, first, the installation position of the operation object 1 in the sensor image acquisition area is determined by the acquisition image of the sensor 2 and the object specifying means 8. It is specified (step ST1 in FIG. 3).
In addition, when the installation position of the operation target 1 is designated, the first region extraction unit 9 creates a first operable area from the image acquisition area of the sensor 2 with reference to the installation position of the operation target 1. Extracted (step ST2 in FIG. 3).
Further, predetermined personal identification information is stored in the personal identification information storage means 12 (step ST3 in FIG. 3).

以上の導入時の設定・動作が完了すると、人物識別システムは定常動作状態になる。
この状態でセンサ2の映像取得領域に人が入った場合は、センサ映像取得領域内の人物が人物検出手段6によって検出される(図3のステップST4)。そして、センサ映像取得領域内の人物の移動が人物追跡手段7によって追跡される(図3のステップST5)。
つぎに、操作対象物1が操作されたか否か、また、操作された場合にはその操作対象物1の***作位置が、対象物操作検出手段4によって検出される(図3のステップST6)。
操作対象物1の操作が検出された場合は、人物特定手段5により第一の操作可能領域内に存在する人物の数が判定される(図3のステップST7)。
When the setting and operation at the time of introduction are completed, the person identification system is in a steady operation state.
When a person enters the image acquisition area of the sensor 2 in this state, a person in the sensor image acquisition area is detected by the person detection means 6 (step ST4 in FIG. 3). Then, the movement of the person in the sensor video acquisition area is tracked by the person tracking means 7 (step ST5 in FIG. 3).
Next, whether or not the operation target 1 has been operated, and if operated, the operated position of the operation target 1 is detected by the target operation detection means 4 (step ST6 in FIG. 3). .
When the operation of the operation target 1 is detected, the number of persons existing in the first operable area is determined by the person specifying means 5 (step ST7 in FIG. 3).

第一の操作可能領域内に存在する人物が1人と判定された場合には、センサ映像から個人識別情報取得手段11によって個人識別情報が取得され(図3のステップST8)、個人特定手段13によって個人識別情報格納手段12に格納された個人識別情報との類似度が算出される(図3のステップST9)。
これによって、操作対象物1を操作した人物が誰かが特定され、特定された人物の映像とその人物の識別子とが紐付けられる(図3のステップST10)。
If it is determined that there is one person in the first operable area, personal identification information is acquired from the sensor video by the personal identification information acquisition means 11 (step ST8 in FIG. 3), and the personal identification means 13 is obtained. Thus, the similarity with the personal identification information stored in the personal identification information storage means 12 is calculated (step ST9 in FIG. 3).
As a result, the person who operated the operation target 1 is specified, and the video of the specified person is associated with the identifier of the person (step ST10 in FIG. 3).

また、第一の操作可能領域内に2人以上の人が存在すると判定された場合は、後述する対象物指定方法が「線」であることが確認された後(図3のステップST11)、第二の領域抽出手段10によって、操作対象物1の***作位置を基準とした第二の操作可能領域が抽出される(図3のステップST12)。
次いで、人物特定手段5により、第二の操作可能領域内に存在する人物の数が判定される(図3のステップST13)。
Further, when it is determined that there are two or more people in the first operable region, after it is confirmed that the object designation method described later is “line” (step ST11 in FIG. 3), A second operable region is extracted by the second region extracting means 10 based on the operated position of the operation target 1 (step ST12 in FIG. 3).
Next, the number of persons existing in the second operable area is determined by the person specifying means 5 (step ST13 in FIG. 3).

第二の操作可能領域内に存在する人物が1人と判定された場合は、センサ映像から個人識別情報取得手段11により個人識別情報が取得されるとともに(図3のステップST8)、個人特定手段13によって個人識別情報格納手段12に格納された個人識別情報との類似度が算出され(図3のステップST9)、操作対象物1を操作した人物が誰かが特定させる。
そして、特定された操作対象物1を操作した人物の映像と個人識別子とが紐付ける(図3のステップST10)。
また、第二の操作可能領域内に2人以上の人が存在すると判定された場合には、エラー情報を出力する(図3のステップST14)。
When it is determined that there is one person in the second operable area, the personal identification information is acquired from the sensor video by the personal identification information acquisition unit 11 (step ST8 in FIG. 3), and the personal identification unit 13, the degree of similarity with the personal identification information stored in the personal identification information storage means 12 is calculated (step ST9 in FIG. 3), and the person who operated the operation target 1 is specified by someone.
Then, the video of the person who operated the specified operation target 1 is associated with the personal identifier (step ST10 in FIG. 3).
If it is determined that there are two or more people in the second operable area, error information is output (step ST14 in FIG. 3).

なお、上述したセンサ2は、単一のセンサに限定されるものではなく、センサ映像取得領域を広く取る場合には、複数のセンサにより構成してもよい。
また、操作対象物1が個人情報取得する機能を備える場合は、センサ映像から個人識別情報を取得するのではなく、図4に示すように、操作対象物1の操作を通して、個人識別情報取得手段14及び個人識別情報格納手段15から個人識別情報を取得し(図5のステップST15)、個人特定手段16によって操作対象物1を操作した個人を特定し、操作した人物の映像と人物の識別子とを紐付けることができる(図5のステップST16)。
なお、図5において、第一、第二の操作可能領域内の人物の数を判定して人物を特定する動作については上述した通りである。
Note that the sensor 2 described above is not limited to a single sensor, and may be configured by a plurality of sensors when a wide sensor image acquisition region is taken.
Further, when the operation target 1 has a function of acquiring personal information, the personal identification information acquisition means is not obtained by acquiring personal identification information from the sensor video, but by operating the operation target 1 as shown in FIG. 14 and the personal identification information storage means 15 (step ST15 in FIG. 5), the individual who has operated the operation target 1 by the personal identification means 16 is specified, the video of the operated person, the identifier of the person, Can be linked (step ST16 in FIG. 5).
In FIG. 5, the operation of determining the number of persons in the first and second operable areas and specifying the person is as described above.

つぎに、本発明の第一実施形態に係る人物識別システムの具体的な利用形態について、図6及び図7を参照してする。
図6は、本実施形態に係る人物識別システムの利用状況を示す説明図である。
この図に示す利用形態では、操作対象物1としてタッチパネル付きのディスプレイ、センサ2としてカメラを考える。操作対象物1がカメラ画像に含まれるように、天井、壁、または操作対象物1から伸びるステーにカメラを取り付ける。カメラからの画像は図6に示すように、操作対象物1であるタッチパネル付きディスプレイを含む一点鎖線で囲まれた領域である。
Next, a specific usage pattern of the person identification system according to the first embodiment of the present invention will be described with reference to FIGS.
FIG. 6 is an explanatory diagram showing the usage status of the person identification system according to the present embodiment.
In the usage form shown in this figure, a display with a touch panel is considered as the operation target 1 and a camera is considered as the sensor 2. The camera is attached to a ceiling, a wall, or a stay extending from the operation target 1 so that the operation target 1 is included in the camera image. As shown in FIG. 6, the image from the camera is a region surrounded by an alternate long and short dash line including a display with a touch panel that is the operation target 1.

本システム導入時に、図6に示すようなカメラからの画像を表示したコンピュータ上で、マウス等の一般的に使用されているユーザインタフェースを用いて、操作対象物1の設置位置を指定する。
ここでは、タッチパネル付きディスプレイは、人が手を伸ばして操作する最大距離(約1m)に比べて無視できないサイズの操作対象物1であるため、操作対象物1の設置位置をタッチパネル領域に対応する線として指定する(図3のステップST1)。
When the system is introduced, the installation position of the operation target 1 is designated on a computer displaying an image from a camera as shown in FIG. 6 by using a commonly used user interface such as a mouse.
Here, since the display with a touch panel is the operation object 1 having a size that cannot be ignored as compared with the maximum distance (about 1 m) operated by a person reaching out, the installation position of the operation object 1 corresponds to the touch panel area. Designated as a line (step ST1 in FIG. 3).

指定された線から操作可能距離の範囲(図6で破線部分)を第一の操作可能領域として抽出する(図3のステップST2)。
更に、本システムを利用する人の個人識別情報を予め取得し、個人識別情報格納手段12により保持する(図3のステップST3)。
この状態で、本システムは定常動作状態となり、画像取得領域内の人物を検出する(図3のステップST4)。
人物の検出方法は、例えば、背景差分法を用いて、リファレンスとなる人物がいない場合の背景画像と、人物が存在する場合の画像の差分を取り、差分として人物が存在する場合に追加された各ピクセルを階層化クラスタリングアルゴリズムなどの手法を用いて、近いピクセル同士を結合してグループ化する。各グループの面積がある範囲内のものを人物と判定する方法がある。
The range of the operable distance from the designated line (broken line portion in FIG. 6) is extracted as the first operable region (step ST2 in FIG. 3).
Further, personal identification information of a person who uses this system is acquired in advance and held by the personal identification information storage means 12 (step ST3 in FIG. 3).
In this state, the system enters a steady operation state, and detects a person in the image acquisition area (step ST4 in FIG. 3).
The person detection method was added, for example, by using the background subtraction method to take the difference between the background image when there is no reference person and the image when there is a person, and when there is a person as the difference Each pixel is grouped by combining nearby pixels using a technique such as a hierarchical clustering algorithm. There is a method of determining a person within a certain area of each group as a person.

例えば、人物Aと人物Bを検出し、検出した人物を追跡したら(図3のステップST5)、人物Aと人物Bの位置関係が図6に示すようになり、そのとき、人物Bがタッチパネル付きディスプレイを操作したとする(図3のステップST6)。
このとき、第一の操作可能領域内には人物Bしか存在しないことが人物Bの位置座標と第一の操作可能領域の関係から分かる(図3のステップST7)。そして、上部カメラからの画像により取得可能な髪型や服の色などの個人識別情報を取得し(図3のステップST8)、予め登録していた個人識別情報との類似度によりタッチパネル付きディスプレイを操作した人物Bを特定し、人物Bの映像と人物Bの識別子を紐付ける(図3のステップST9、ST10)。
For example, when the persons A and B are detected and the detected persons are tracked (step ST5 in FIG. 3), the positional relationship between the persons A and B becomes as shown in FIG. Assume that the display is operated (step ST6 in FIG. 3).
At this time, it can be seen from the relationship between the position coordinates of the person B and the first operable area that only the person B exists in the first operable area (step ST7 in FIG. 3). Then, personal identification information such as a hairstyle and clothing color that can be acquired from the image from the upper camera is acquired (step ST8 in FIG. 3), and the display with touch panel is operated according to the similarity to the personal identification information registered in advance. The person B is identified, and the video of the person B and the identifier of the person B are linked (steps ST9 and ST10 in FIG. 3).

また、第一の操作可能領域内に人物Bと人物Cが存在する場合は、人物B、人物Cの位置座標と第一の操作可能領域の関係から、第一の操作可能領域内に2人の人物が存在することが分かる。
このとき、タッチパネル付きディスプレイにタッチした水平方向の位置座標をタッチパネルの出力から取得する。そして、操作対象物1として指定した線の長さとタッチパネルの水平方向の解像度の比から、指定した線上におけるタッチした***作位置を算出し、その***作位置を中心とした第二の操作可能領域を抽出する(図3のステップST12)。
In the case where the person B and the person C exist in the first operable area, two people in the first operable area are determined from the relationship between the position coordinates of the person B and the person C and the first operable area. It can be seen that there is a person.
At this time, the horizontal position coordinate touched on the display with a touch panel is acquired from the output of the touch panel. Then, the touched operation position on the specified line is calculated from the ratio between the length of the line specified as the operation object 1 and the horizontal resolution of the touch panel, and the second operable area centered on the operation position. Is extracted (step ST12 in FIG. 3).

第二の操作可能領域内には人物Bしか存在しないことが人物Bの位置座標と第二の操作可能領域の関係から分かる(図3のステップST13)。そして、上部カメラからの画像により取得可能な髪型や服の色などの個人識別情報を取得し(図3のステップST8)、予め登録していた個人識別情報との類似度によりタッチパネル付きディスプレイを操作した人物Bを特定し、人物Bの映像と人物Bの識別子を紐付ける(図3のステップST9、ST10)。
なお、第二の操作可能領域内に複数の人物が存在する場合には、エラー情報をタッチパネル付きディスプレイ上に表示する(図3のステップST14)。
It can be seen from the relationship between the position coordinates of the person B and the second operable area that only the person B exists in the second operable area (step ST13 in FIG. 3). Then, personal identification information such as a hairstyle and clothing color that can be acquired from the image from the upper camera is acquired (step ST8 in FIG. 3), and the display with touch panel is operated according to the similarity to the personal identification information registered in advance. The person B is identified, and the video of the person B and the identifier of the person B are linked (steps ST9 and ST10 in FIG. 3).
If there are a plurality of persons in the second operable area, error information is displayed on the display with a touch panel (step ST14 in FIG. 3).

図7は、本発明の第一実施形態に係る人物識別システムの別の利用状況を示す説明図である。
この図に示す利用形態では、操作対象物1としてIDカードリーダ、センサ2としてカメラを考える。前述の利用形態と同様に、操作対象物1がカメラ画像に含まれるように天井、壁、または操作対象物から伸びるステーにカメラを取り付ける。カメラからの画像は、図7に示すように操作対象物1であるIDカードリーダを含む一点鎖線で囲まれた領域である。
FIG. 7 is an explanatory diagram showing another usage situation of the person identification system according to the first embodiment of the present invention.
In the usage form shown in this figure, an ID card reader is considered as the operation object 1 and a camera is considered as the sensor 2. Similar to the above-described usage mode, the camera is attached to a ceiling, a wall, or a stay extending from the operation target so that the operation target 1 is included in the camera image. The image from the camera is a region surrounded by a one-dot chain line including the ID card reader as the operation target 1 as shown in FIG.

本システム導入時に、図7に示すようなカメラからの画像を表示したコンピュータ上で、マウス等の一般的に使用されているユーザインタフェースを用いて、操作対象物1の位置を指定する。ここで、IDカードリーダは、人が手を伸ばして操作する最大距離(約1m)に比べて無視できるサイズの操作対象物1であるため、操作対象物1の設置位置は点で指定する(図5のステップST1)。
指定された点から操作可能距離の範囲(図7で破線部分)を第一の操作可能領域として抽出する(図5のステップST2)。
When the system is introduced, the position of the operation target 1 is designated using a commonly used user interface such as a mouse on a computer displaying an image from a camera as shown in FIG. Here, since the ID card reader is the operation object 1 having a size that can be ignored as compared with the maximum distance (about 1 m) operated by a person reaching out, the installation position of the operation object 1 is designated by a point ( Step ST1 in FIG.
The range of the operable distance from the designated point (the broken line portion in FIG. 7) is extracted as the first operable region (step ST2 in FIG. 5).

つぎに、前述の利用形態と同様に、第一の操作可能領域に存在するのは人物Bであることを検出し(図5のステップST7)、IDカードリーダの読取結果から人物Bを特定し、人物Bの映像と人物Bの識別子を紐付ける(図5のステップST15、16)。
なお、操作対象物1の指定方法を判定し(図5のステップST11)、操作対象物が点で指定されている場合には、第一の操作可能領域と第二の操作可能領域が同一となるので、第一の操作可能領域内に複数人が存在する場合には、第二の操作可能領域の抽出や判定処理をスキップし、IDカードリーダから警告音を出力する(図6のステップST14)。
Next, as in the above-described usage pattern, it is detected that the person B exists in the first operable area (step ST7 in FIG. 5), and the person B is identified from the reading result of the ID card reader. The video of person B and the identifier of person B are linked (steps ST15 and ST16 in FIG. 5).
Note that the method of specifying the operation target 1 is determined (step ST11 in FIG. 5), and when the operation target is specified by a point, the first operable area and the second operable area are the same. Therefore, when there are a plurality of persons in the first operable area, the extraction and determination processing of the second operable area is skipped, and a warning sound is output from the ID card reader (step ST14 in FIG. 6). ).

以上のように構成された本実施形態によれば、操作対象物1と、操作対象物1を操作可能な領域の映像を取得するセンサ2と、操作対象物1を操作した人物の映像と人物の識別子とを紐付ける人物識別装置3とを備え、人物識別装置3が、操作対象物1が操作されたこと、及び/又は、操作対象物1の***作位置を検出する対象物操作検出手段4と、操作対象物1が操作されたとき、映像に含まれる人物の数を検出し、人物の数が1の場合に、その人物が操作対象物1を操作している人物であると特定し、人物の数が2以上の場合に、2以上の人物から操作対象物1を操作している1の人物を特定する人物特定手段5とを備えるので、センサ2で取得された映像に含まれる人物の数が2以上の場合においても、操作対象物1を操作している1の人物を特定し、特定した人物の映像と人物の識別子とを紐付けることができる。   According to the present embodiment configured as described above, the operation object 1, the sensor 2 that acquires the image of the region in which the operation object 1 can be operated, the image of the person who operated the operation object 1, and the person And a person identification device 3 that associates the identifier of the target object, and the person identification device 3 detects that the operation target 1 has been operated and / or an operation position of the operation target 1. 4. When the operation target 1 is operated, the number of persons included in the video is detected. When the number of persons is 1, the person is identified as operating the operation target 1. However, when the number of persons is 2 or more, the apparatus includes the person specifying means 5 for specifying one person who is operating the operation target 1 from two or more persons. Even when the number of persons to be operated is 2 or more, the operating object 1 is operated 1 To identify the person, it can be attached string and the identifier of the video and the person of the specified person.

また、人物識別装置3は、センサ2の映像取得領域から、操作対象物1の設置位置を基準とした第一の操作可能領域を抽出する第一の領域抽出手段9と、センサ2の映像取得領域から、操作対象物1の***作位置を基準とした第二の操作可能領域を抽出する第二の領域抽出手段10とを備え、人物特定手段5が、操作対象物1が操作されたとき、第一の操作可能領域に含まれる人物の数を検出し、人物の数が1の場合に、その人物が操作対象物1を操作している人物であると特定し、人物の数が2以上の場合に、第二の操作可能領域に含まれる人物の数を検出し、その数が1の場合に、その人物が操作対象物1を操作している1の人物であると特定することができる。
これにより、操作対象物1の設置位置を基準とした第一の操作可能領域に複数の人物が存在する状況でも、操作対象物1の***作位置を基準として、操作対象物1を操作している1の人物を正確に特定することができるようになる。
In addition, the person identification device 3 includes a first area extraction unit 9 that extracts a first operable area based on the installation position of the operation target 1 from the image acquisition area of the sensor 2, and the image acquisition of the sensor 2. A second region extraction unit 10 for extracting a second operable region from the region with respect to the operated position of the operation target 1, and when the person specifying unit 5 operates the operation target 1 The number of persons included in the first operable area is detected, and when the number of persons is 1, it is determined that the person is operating the operation target 1, and the number of persons is 2. In the above case, the number of persons included in the second operable region is detected, and when the number is 1, the person is identified as the one person operating the operation target 1. Can do.
As a result, even when there are a plurality of persons in the first operable region based on the installation position of the operation target object 1, the operation target object 1 is operated on the basis of the operated position of the operation target object 1. It becomes possible to accurately identify one person who is present.

[第二実施形態]
つぎに、本発明の第二実施形態に係る人物識別システムについて、図8〜図12を参照して説明する。
図8は、本発明の第二実施形態に係る人物識別システムの具体的な構成を示すブロック図である。
この図に示すように、本発明の第二実施形態に係る人物識別システムは、上述した第一実施形態における人物検出システムの構成に加えて、操作確度算出手段17を備える点が第一実施形態と相違している。
[Second Embodiment]
Next, a person identification system according to a second embodiment of the present invention will be described with reference to FIGS.
FIG. 8 is a block diagram showing a specific configuration of the person identification system according to the second embodiment of the present invention.
As shown in this figure, the person identification system according to the second embodiment of the present invention includes an operation accuracy calculation means 17 in addition to the configuration of the person detection system in the first embodiment described above. Is different.

操作確度算出手段17は、第二の操作可能領域に含まれる人物毎に、操作対象物1の***作位置を頂点として各人物が含まれる扇領域を抽出し、この扇領域から人物を除いた三角領域の面積の小ささ、及び/又は、扇領域における操作直前の動きベクトルの大きさ、を操作確度として算出する。
これにより、人物特定手段5は、第二の操作可能領域に含まれる人物の数が2以上の場合であっても、各人物の操作確度にもとづいて、操作対象物1を操作している1の人物を特定することが可能になる。
For each person included in the second operable area, the operation accuracy calculation means 17 extracts a fan area including each person with the operated position of the operation target 1 as a vertex, and removes the person from the fan area. The small area of the triangular area and / or the magnitude of the motion vector immediately before the operation in the fan area is calculated as the operation accuracy.
Thereby, even if the number of persons included in the second operable area is two or more, the person specifying means 5 operates the operation target 1 based on the operation accuracy of each person 1 Can be identified.

つぎに、本発明の第二実施形態に係る人物識別システムにおける具体的な処理・動作について、図8及び図9を参照して説明する。
図9は、本発明の第二実施形態に係る人物識別システムの動作手順を示すフローチャートである。
なお、操作対象物1の設置位置の指定(図9のステップST1)から、第一の操作可能領域内の人物の数を検出(図9のステップST7)までの動作、さらに、第一、第二の操作可能領域内の人物が1人の場合の動作は、第一実施形態と同様の動作であるため、説明は省略する。
Next, specific processes and operations in the person identification system according to the second embodiment of the present invention will be described with reference to FIGS.
FIG. 9 is a flowchart showing an operation procedure of the person identification system according to the second embodiment of the present invention.
The operation from the designation of the installation position of the operation target 1 (step ST1 in FIG. 9) to the detection of the number of persons in the first operable region (step ST7 in FIG. 9), and the first and second Since the operation when the number of persons in the second operable area is one is the same as that in the first embodiment, the description thereof is omitted.

操作確度算出手段17は、第二の操作可能領域内(設置位置の指定が点の場合は第一の操作可能領域内)の人物が2人以上の場合、センサ2の取得映像を分析することによって、第二の操作可能領域内の人物毎に、操作対象物1を操作した可能性の大きさを示す操作確度を算出する(図9のステップST17)。
つぎに、個々の人物の操作確度を比較し、操作確度の高い人物を、操作対象物1を操作した1の人物として特定する(図9のステップST18)。
なお、操作対象物1を操作した人物を特定した後の個人を特定する動作については、第一実施形態と同様である。
The operation accuracy calculation means 17 analyzes the acquired image of the sensor 2 when there are two or more persons in the second operable area (in the first operable area when the installation position is designated as a point). Thus, for each person in the second operable region, an operation accuracy indicating the degree of possibility that the operation target 1 has been operated is calculated (step ST17 in FIG. 9).
Next, the operation accuracy of each person is compared, and a person with high operation accuracy is specified as one person who has operated the operation target 1 (step ST18 in FIG. 9).
In addition, about the operation | movement which specifies the individual after specifying the person who operated the operation target object 1 is the same as that of 1st embodiment.

つぎに、本発明の第二実施形態に係る人物識別システムの具体的な利用形態について、図10及び図11を参照して説明する。
図10は、本発明の第二実施形態に係る人物識別システムの利用状況を示す説明図、図11は、本発明の第二実施形態に係る人物識別システムの操作確度算出方法を示す説明図である。
Next, a specific usage pattern of the person identification system according to the second embodiment of the present invention will be described with reference to FIGS.
FIG. 10 is an explanatory diagram showing a usage situation of the person identification system according to the second embodiment of the present invention, and FIG. 11 is an explanatory diagram showing an operation accuracy calculation method of the person identification system according to the second embodiment of the present invention. is there.

図10に示す利用形態では、操作対象物1としてタッチパネル付きディスプレイ、センサ2としてカメラを考える。操作対象物1がカメラ画像に含まれるように天井、壁、または操作対象物1から伸びるステーにカメラを取り付ける。カメラからの画像は図10に示すように操作対象物1であるタッチパネル付きディスプレイを含む一点鎖線で囲まれた領域である。
なお、操作対象物1の指定(図9のステップST1)、第一の操作可能領域の抽出(図9のステップST2)、人物検出(図9のステップST4)、人物の追跡(図9のステップST5)、第二の操作可能領域の抽出(図9のステップST12)については、第一実施形態の利用形態と同様である。
In the utilization form shown in FIG. 10, a display with a touch panel is considered as the operation target 1 and a camera is considered as the sensor 2. The camera is attached to a ceiling, a wall, or a stay extending from the operation target 1 so that the operation target 1 is included in the camera image. As shown in FIG. 10, the image from the camera is a region surrounded by an alternate long and short dash line including a display with a touch panel that is the operation target 1.
Note that the operation target 1 is designated (step ST1 in FIG. 9), the first operable region is extracted (step ST2 in FIG. 9), the person is detected (step ST4 in FIG. 9), and the person is tracked (step in FIG. 9). ST5) and extraction of the second operable region (step ST12 in FIG. 9) are the same as in the usage mode of the first embodiment.

人物Bと人物Dの位置関係が図10に示すようになり、そのとき、人物Bがタッチパネル付きディスプレイを操作したとする(図9のステップST6)。
このとき、第二の操作可能領域内には人物B、人物Dが存在することが、人物B、人物Dの位置座標と第二の操作可能領域の関係から分かる(図9のステップST13)。
The positional relationship between the person B and the person D is as shown in FIG. 10, and it is assumed that the person B operates the display with a touch panel (step ST6 in FIG. 9).
At this time, it can be seen from the relationship between the position coordinates of the person B and the person D and the second operable area that the person B and the person D exist in the second operable area (step ST13 in FIG. 9).

この場合、人物B、人物Dについて、それぞれの操作確度を算出する(図9のステップST17)。操作確度は、例えば、背景差分法により人物が存在しない状況でのカメラ画像と、人物が存在する場合のカメラ画像との差分から、差分ピクセルを算出する。
つぎに、図11に示すようなタッチパネル付きディスプレイにタッチした位置を頂点とする人物Bを含む扇領域から人物Bの部分を除いた三角領域と、人物Dを含む扇領域から人物Dの部分を除いた三角領域とのそれぞれに含まれる差分ピクセルの数(=面積)を算出する。そして、それぞれの三角領域に含まれる差分ピクセルの数(=面積の小ささ)を操作確度とする。
In this case, the respective operation accuracy is calculated for the person B and the person D (step ST17 in FIG. 9). For the operation accuracy, for example, a difference pixel is calculated from a difference between a camera image in a situation where no person exists by the background difference method and a camera image when a person exists.
Next, a triangular area obtained by removing the person B from the fan area including the person B having the position touched on the display with the touch panel as illustrated in FIG. The number (= area) of difference pixels included in each of the excluded triangular regions is calculated. Then, the number of difference pixels (= smallness of the area) included in each triangular area is set as the operation accuracy.

なお、操作確度の算出については、オプティカルフロー推定により、タッチパネル付きディスプレイへのタッチを検出したときに、タッチ直前のタッチ位置を中心とする動きベクトルを検出するとともに、タッチした位置を頂点として各人物を含む扇領域内の動きベクトルの大きさを操作確度として算出しても良い。   Regarding the calculation of the operation accuracy, when a touch on a display with a touch panel is detected by optical flow estimation, a motion vector centered on the touch position immediately before the touch is detected, and each person with the touched position as a vertex is detected. The size of the motion vector in the fan area including “” may be calculated as the operation accuracy.

そして、人物B、人物Dのそれぞれの操作確度を比較し、操作確度が高い方がタッチパネル付きディスプレイを操作していると判定する(図9のステップST18)。
なお、個人識別情報の取得(図9のステップST8)、識別情報の類似度算出(図9のステップST9)、個人の特定(図9のステップST10)については、第一実施形態の利用形態と同様である。
また、操作対象物1が個人情報取得する機能を備える場合は、センサ映像から個人識別情報を取得するのではなく、図12に示すように、操作対象物1の操作を通して、個人識別情報取得手段14及び個人識別情報格納手段15から個人識別情報を取得し、個人特定手段16によって操作対象物1を操作した個人を特定し、操作した人物の映像と人物の識別子とを紐付けることができる。
Then, the operation accuracy of each of person B and person D is compared, and it is determined that the one with higher operation accuracy is operating the display with a touch panel (step ST18 in FIG. 9).
Note that acquisition of personal identification information (step ST8 in FIG. 9), calculation of similarity of identification information (step ST9 in FIG. 9), and identification of an individual (step ST10 in FIG. 9) are the same as the usage mode of the first embodiment. It is the same.
Further, when the operation target 1 has a function of acquiring personal information, the personal identification information acquisition means is not obtained by acquiring personal identification information from the sensor video but through operation of the operation target 1 as shown in FIG. 14 and the personal identification information storage means 15 can be acquired, the individual who operated the operation target 1 by the personal identification means 16 can be specified, and the video of the operated person can be associated with the identifier of the person.

以上のように構成された第二実施形態によれば、人物識別装置3が、第二の操作可能領域に含まれる人物毎に、操作対象物1の***作位置を頂点として各人物が含まれる扇領域を抽出し、扇領域から人物を除いた三角領域の面積の小ささ、及び/又は、扇領域における操作直前の動きベクトルの大きさ、を操作確度として算出する操作確度算出手段17を備え、人物特定手段5が、第二の操作可能領域に含まれる人物の数が2以上の場合に、各人物の操作確度にもとづいて、操作対象物1を操作している1の人物を特定することができる。
これにより、第二の操作可能領域に含まれる人物の数が2以上の場合であっても、操作対象物1を操作している1の人物を特定することが可能になる。
According to the second embodiment configured as described above, the person identification device 3 includes each person with the operated position of the operation target 1 as a vertex for each person included in the second operable region. An operation accuracy calculation unit 17 is provided that extracts a fan area and calculates, as operation accuracy, the small area of the triangular area excluding the person from the fan area and / or the size of the motion vector immediately before the operation in the fan area. When the number of persons included in the second operable area is 2 or more, the person specifying unit 5 specifies one person who is operating the operation target 1 based on the operation accuracy of each person. be able to.
Thereby, even if the number of persons included in the second operable area is two or more, it is possible to specify one person who is operating the operation target 1.

例えば、センサ2が、操作対象物1を操作可能な領域を上方から撮影し、操作対象物1が、タッチパネル付きのディスプレイであり、設置位置がタッチパネル領域に対応する線として指定される場合に、人物特定手段5は、操作対象物1が操作されたとき、第一の操作可能領域に含まれる人物の数を検出し、前記人物の数が1の場合に、その人物が操作対象物1を操作している人物であると特定し、前記人物の数が2以上の場合に、第二の操作可能領域に含まれる人物の数を検出し、その数が1の場合に、その人物が操作対象物1を操作している1の人物であると特定し、第二の操作可能領域に含まれる人物の数が2以上の場合に、各人物の操作確度にもとづいて、操作対象物1を操作している1の人物を特定することが可能になる。   For example, when the sensor 2 captures an area where the operation target 1 can be operated from above, the operation target 1 is a display with a touch panel, and the installation position is designated as a line corresponding to the touch panel area. The person specifying means 5 detects the number of persons included in the first operable area when the operation target object 1 is operated. When the number of persons is 1, the person specifies the operation target object 1. When the number of persons is identified as the person who is operating and the number of persons is 2 or more, the number of persons included in the second operable area is detected. When it is specified that the person 1 is operating the object 1 and the number of persons included in the second operable area is 2 or more, the operation object 1 is selected based on the operation accuracy of each person. It becomes possible to specify one person who is operating.

また、センサ2が、操作対象物1を操作可能な領域を上方から撮影し、操作対象物1が、IDカード読取装置であり、設置位置がIDカード読取位置に対応する点として指定される場合に、人物特定手段5は、操作対象物1が操作されたとき、第一の操作可能領域に含まれる人物の数を検出し、前記人物の数が1の場合に、その人物が操作対象物1を操作している人物であると特定し、前記人物の数が2以上の場合に、各人物の操作確度にもとづいて、操作対象物1を操作している1の人物を特定することが可能になる。
そして、操作対象物1の設置位置が点で指定される場合は、第一及び第二の操作可能領域が同じになるので、上記のように第二の操作可能領域の抽出や、第二の操作可能領域内の人数判定をスキップすることにより、処理負担の軽減や処理速度の向上を図ることができる。
Further, when the sensor 2 captures an area where the operation target 1 can be operated from above, the operation target 1 is an ID card reader, and the installation position is designated as a point corresponding to the ID card reading position. In addition, the person specifying means 5 detects the number of persons included in the first operable area when the operation target 1 is operated, and when the number of persons is 1, that person is the operation target. 1 is identified as the person who is operating, and when the number of persons is 2 or more, the person who is operating the operation target 1 is identified based on the operation accuracy of each person. It becomes possible.
And when the installation position of the operation target object 1 is designated by a point, the first and second operable regions are the same, so the second operable region can be extracted as described above, or the second By skipping the determination of the number of people in the operable area, the processing load can be reduced and the processing speed can be improved.

以上、本発明の人物識別システム、人物識別方法、人物識別装置及び人物識別プログラムについて、実施形態を示して説明したが、本発明は、上述した実施形態にのみ限定されるものではなく、特許請求の範囲内で種々の変更が可能であることは言うまでもない。   As described above, the person identification system, the person identification method, the person identification apparatus, and the person identification program according to the present invention have been described with reference to the embodiments. However, the present invention is not limited to the above-described embodiments, and is claimed. It goes without saying that various modifications can be made within the range described above.

本発明は、操作対象物を操作した人物の映像と人物の識別子とを紐付ける人物識別システム、人物識別方法、人物識別装置及び人物識別プログラムとして利用することができる。また、これらを含む人物検出システム、人物追跡システムなどでも利用することができる。   INDUSTRIAL APPLICABILITY The present invention can be used as a person identification system, a person identification method, a person identification device, and a person identification program for associating an image of a person who has operated an operation target with a person identifier. Further, it can also be used in a person detection system including these, a person tracking system, and the like.

1 操作対象物
2 センサ
3 人物識別装置
4 対象物操作検出手段
5 人物特定手段
6 人物検出手段
7 人物追跡手段
8 対象物指定手段
9 第一の領域抽出手段
10 第二の領域抽出手段
11 個人識別情報取得手段
12 個人識別情報格納手段
13 個人特定手段
14 個人識別情報取得手段
15 個人識別情報格納手段
16 個人特定手段
17 操作確度算出手段
DESCRIPTION OF SYMBOLS 1 Operation target 2 Sensor 3 Person identification apparatus 4 Object operation detection means 5 Person identification means 6 Person detection means 7 Person tracking means 8 Object designation means 9 First area extraction means 10 Second area extraction means 11 Personal identification Information acquisition means 12 Personal identification information storage means 13 Personal identification means 14 Personal identification information acquisition means 15 Personal identification information storage means 16 Personal identification means 17 Operation accuracy calculation means

Claims (11)

操作対象物と、前記操作対象物を操作可能な領域の映像を取得するセンサと、前記操作対象物を操作した人物の映像と人物の識別子とを紐付ける人物識別装置とを備え、
前記人物識別装置が、
前記操作対象物が操作されたこと、及び/又は、前記操作対象物の***作位置を検出する対象物操作検出手段と、
前記操作対象物が操作されたとき、前記映像に含まれる人物の数を検出し、前記人物の数が1の場合に、その人物が前記操作対象物を操作している人物であると特定し、前記人物の数が2以上の場合に、2以上の人物から前記操作対象物を操作している1の人物を特定する人物特定手段と、を備えることを特徴とする人物識別システム。
An operation object, a sensor that acquires an image of an area in which the operation object can be operated, and a person identification device that associates an image of a person who operated the operation object with an identifier of the person,
The person identification device is
An object operation detection means for detecting that the operation object has been operated and / or an operated position of the operation object;
When the operation object is operated, the number of persons included in the video is detected, and when the number of persons is 1, the person is identified as the person who is operating the operation object. A person identifying system comprising: a person identifying unit that identifies one person who is operating the operation target from two or more persons when the number of persons is two or more.
前記人物識別装置が、
前記センサの映像取得領域から、前記操作対象物の設置位置を基準とした一部の領域を抽出する第一の領域抽出手段と、
前記センサの映像取得領域から、前記操作対象物の***作位置を基準とした一部の領域を抽出する第二の領域抽出手段と、を備え、
前記人物特定手段が、
前記操作対象物が操作されたとき、前記第一の領域に含まれる人物の数を検出し、前記人物の数が1の場合に、その人物が前記操作対象物を操作している人物であると特定し、前記人物の数が2以上の場合に、前記第二の領域に含まれる人物の数を検出し、その数が1の場合に、その人物が前記操作対象物を操作している1の人物であると特定する請求項1記載の人物識別システム。
The person identification device is
A first area extracting means for extracting a part of the area based on the installation position of the operation object from the image acquisition area of the sensor;
A second area extracting means for extracting a partial area based on the operated position of the operation target from the image acquisition area of the sensor,
The person specifying means is
When the operation object is operated, the number of persons included in the first area is detected, and when the number of persons is 1, the person is operating the operation object. When the number of persons is 2 or more, the number of persons included in the second area is detected, and when the number is 1, the person operates the operation target. The person identification system according to claim 1, wherein the person identification system is identified as one person.
前記人物識別装置が、
前記第二の領域に含まれる人物毎に、前記操作対象物の***作位置を頂点として各人物が含まれる扇領域を抽出し、前記扇領域から人物を除いた三角領域の面積の小ささ、及び/又は、前記扇領域における操作直前の動きベクトルの大きさ、を操作確度として算出する操作確度算出手段を備え、
前記人物特定手段が、
前記第二の領域に含まれる人物の数が2以上の場合に、各人物の前記操作確度にもとづいて、前記操作対象物を操作している1の人物を特定する請求項2記載の人物識別システム。
The person identification device is
For each person included in the second area, extract the fan area including each person with the operated position of the operation target as a vertex, and the small area of the triangular area excluding the person from the fan area, And / or comprising an operation accuracy calculation means for calculating, as the operation accuracy, the magnitude of the motion vector immediately before the operation in the fan area,
The person specifying means is
The person identification according to claim 2, wherein when the number of persons included in the second area is two or more, one person who operates the operation target is specified based on the operation accuracy of each person. system.
前記センサが、
前記操作対象物を操作可能な領域を上方から撮影し、
前記操作対象物が、
タッチパネル付きのディスプレイであり、前記設置位置がタッチパネル領域に対応する線として指定され、
前記人物特定手段が、
前記操作対象物が操作されたとき、前記第一の領域に含まれる人物の数を検出し、前記人物の数が1の場合に、その人物が前記操作対象物を操作している人物であると特定し、前記人物の数が2以上の場合に、前記第二の領域に含まれる人物の数を検出し、その数が1の場合に、その人物が前記操作対象物を操作している1の人物であると特定し、前記第二の領域に含まれる人物の数が2以上の場合に、各人物の前記操作確度にもとづいて、前記操作対象物を操作している1の人物を特定する請求項3記載の人物識別システム。
The sensor is
Shooting from above the area where the operation object can be operated,
The operation object is
A display with a touch panel, the installation position is designated as a line corresponding to the touch panel area,
The person specifying means is
When the operation object is operated, the number of persons included in the first area is detected, and when the number of persons is 1, the person is operating the operation object. When the number of persons is 2 or more, the number of persons included in the second area is detected, and when the number is 1, the person operates the operation target. If the number of persons included in the second area is two or more, the one person who is operating the operation target is determined based on the operation accuracy of each person. The person identification system according to claim 3 to be specified.
前記センサが、
前記操作対象物を操作可能な領域を上方から撮影し、
前記操作対象物が、
IDカード読取装置であり、前記設置位置がIDカード読取位置に対応する点として指定され、
前記人物特定手段が、
前記操作対象物が操作されたとき、前記第一の領域に含まれる人物の数を検出し、前記人物の数が1の場合に、その人物が前記操作対象物を操作している人物であると特定し、前記人物の数が2以上の場合に、各人物の前記操作確度にもとづいて、前記操作対象物を操作している1の人物を特定する請求項3記載の人物識別システム。
The sensor is
Shooting from above the area where the operation object can be operated,
The operation object is
An ID card reader, wherein the installation position is designated as a point corresponding to the ID card reading position;
The person specifying means is
When the operation object is operated, the number of persons included in the first area is detected, and when the number of persons is 1, the person is operating the operation object. 4. The person identification system according to claim 3, wherein when the number of persons is two or more, one person who is operating the operation target is specified based on the operation accuracy of each person.
操作対象物と、前記操作対象物を操作可能な領域の映像を取得するセンサと、前記操作対象物を操作した人物の映像と人物の識別子とを紐付ける人物識別装置とを用い、
前記人物識別装置に、
前記操作対象物が操作されたこと、及び/又は、前記操作対象物の***作位置を検出する対象物操作検出手順と、
前記操作対象物が操作されたとき、前記映像に含まれる人物の数を検出し、前記人物の数が1の場合に、その人物が前記操作対象物を操作している人物であると特定し、前記人物の数が2以上の場合に、2以上の人物から前記操作対象物を操作している1の人物を特定する人物特定手順と、を実行させることを特徴とする人物識別方法。
Using an operation object, a sensor that acquires an image of an area in which the operation object can be operated, and a person identification device that associates an image of a person who operated the operation object with a person identifier,
In the person identification device,
An object operation detection procedure for detecting that the operation object has been operated and / or an operated position of the operation object;
When the operation object is operated, the number of persons included in the video is detected, and when the number of persons is 1, the person is identified as the person who is operating the operation object. And a person identification procedure for identifying one person who is operating the operation target from two or more persons when the number of persons is two or more.
前記人物識別装置に、
前記センサの映像取得領域から、前記操作対象物の設置位置を基準とした一部の領域を抽出する第一の領域抽出手順と、
前記センサの映像取得領域から、前記操作対象物の***作位置を基準とした一部の領域を抽出する第二の領域抽出手順と、を実行させ、
前記人物特定手段に、
前記操作対象物が操作されたとき、前記第一の領域に含まれる人物の数を検出し、前記人物の数が1の場合に、その人物が前記操作対象物を操作している人物であると特定し、前記人物の数が2以上の場合に、前記第二の領域に含まれる人物の数を検出し、その数が1の場合に、その人物が前記操作対象物を操作している1の人物であると特定させる請求項6記載の人物識別方法。
In the person identification device,
A first region extraction procedure for extracting a portion of the region based on the installation position of the operation object from the image acquisition region of the sensor;
A second region extraction procedure for extracting a portion of the region based on the operated position of the operation target from the image acquisition region of the sensor;
In the person identification means,
When the operation object is operated, the number of persons included in the first area is detected, and when the number of persons is 1, the person is operating the operation object. When the number of persons is 2 or more, the number of persons included in the second area is detected, and when the number is 1, the person operates the operation target. The person identifying method according to claim 6, wherein the person is identified as one person.
操作対象物と、前記操作対象物を操作可能な領域の映像を取得するセンサとに接続され、前記操作対象物を操作した人物の映像と人物の識別子とを紐付けるにあたり、
前記操作対象物が操作されたこと、及び/又は、前記操作対象物の***作位置を検出する対象物操作検出手段と、
前記操作対象物が操作されたとき、前記映像に含まれる人物の数を検出し、前記人物の数が1の場合に、その人物が前記操作対象物を操作している人物であると特定し、前記人物の数が2以上の場合に、2以上の人物から前記操作対象物を操作している1の人物を特定する人物特定手段と、を備えることを特徴とする人物識別装置。
In connection with an operation object and a sensor that acquires an image of an area in which the operation object can be operated, and associating an image of a person who operated the operation object with an identifier of a person,
An object operation detection means for detecting that the operation object has been operated and / or an operated position of the operation object;
When the operation object is operated, the number of persons included in the video is detected, and when the number of persons is 1, the person is identified as the person who is operating the operation object. A person identifying device comprising: a person identifying unit that identifies one person who is operating the operation target from two or more persons when the number of persons is two or more.
前記センサの映像取得領域から、前記操作対象物の設置位置を基準とした一部の領域を抽出する第一の領域抽出手段と、
前記センサの映像取得領域から、前記操作対象物の***作位置を基準とした一部の領域を抽出する第二の領域抽出手段と、を備え、
前記人物特定手段が、
前記操作対象物が操作されたとき、前記第一の領域に含まれる人物の数を検出し、前記人物の数が1の場合に、その人物が前記操作対象物を操作している人物であると特定し、前記人物の数が2以上の場合に、前記第二の領域に含まれる人物の数を検出し、その数が1の場合に、その人物が前記操作対象物を操作している1の人物であると特定する請求項8記載の人物識別装置。
A first area extracting means for extracting a part of the area based on the installation position of the operation object from the image acquisition area of the sensor;
A second area extracting means for extracting a partial area based on the operated position of the operation target from the image acquisition area of the sensor,
The person specifying means is
When the operation object is operated, the number of persons included in the first area is detected, and when the number of persons is 1, the person is operating the operation object. When the number of persons is 2 or more, the number of persons included in the second area is detected, and when the number is 1, the person operates the operation target. The person identifying apparatus according to claim 8, wherein the person identifying apparatus identifies the person as one person.
操作対象物と、前記操作対象物を操作可能な領域の映像を取得するセンサとに接続され、前記操作対象物を操作した人物の映像と人物の識別子とを紐付けるコンピュータを動作させるにあたり、
前記コンピュータを、
前記操作対象物が操作されたこと、及び/又は、前記操作対象物の***作位置を検出する対象物操作検出手段、
前記操作対象物が操作されたとき、前記映像に含まれる人物の数を検出し、前記人物の数が1の場合に、その人物が前記操作対象物を操作している人物であると特定し、前記人物の数が2以上の場合に、2以上の人物から前記操作対象物を操作している1の人物を特定する人物特定手段、として機能させることを特徴とする人物識別プログラム。
When operating a computer that is connected to an operation object and a sensor that acquires an image of an area in which the operation object can be operated, and associates an image of a person who has operated the operation object with an identifier of a person,
The computer,
Object operation detecting means for detecting that the operation object has been operated and / or an operated position of the operation object;
When the operation object is operated, the number of persons included in the video is detected, and when the number of persons is 1, the person is identified as the person who is operating the operation object. When the number of persons is two or more, a person identifying program that functions as person identifying means for identifying one person who is operating the operation target from two or more persons.
前記コンピュータを、
前記センサの映像取得領域から、前記操作対象物の設置位置を基準とした一部の領域を抽出する第一の領域抽出手段、
前記センサの映像取得領域から、前記操作対象物の***作位置を基準とした一部の領域を抽出する第二の領域抽出手段、として機能させ、
前記人物特定手段に、
前記操作対象物が操作されたとき、前記第一の領域に含まれる人物の数を検出させ、前記人物の数が1の場合に、その人物が前記操作対象物を操作している人物であると特定させ、前記人物の数が2以上の場合に、前記第二の領域に含まれる人物の数を検出させ、その数が1の場合に、その人物が前記操作対象物を操作している1の人物であると特定させる請求項10記載の人物識別プログラム。
The computer,
A first region extracting means for extracting a partial region based on the installation position of the operation target object from the image acquisition region of the sensor;
From the image acquisition area of the sensor, to function as a second area extraction means for extracting a partial area based on the operated position of the operation target,
In the person identification means,
When the operation target is operated, the number of persons included in the first region is detected, and when the number of persons is 1, the person is operating the operation target. When the number of persons is 2 or more, the number of persons included in the second area is detected. When the number is 1, the person is operating the operation target. The person identifying program according to claim 10, wherein the person identifying program is specified to be one person.
JP2009147742A 2009-06-22 2009-06-22 Person identification system, person identification method, person identification device and person identification program Pending JP2011003138A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009147742A JP2011003138A (en) 2009-06-22 2009-06-22 Person identification system, person identification method, person identification device and person identification program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009147742A JP2011003138A (en) 2009-06-22 2009-06-22 Person identification system, person identification method, person identification device and person identification program

Publications (1)

Publication Number Publication Date
JP2011003138A true JP2011003138A (en) 2011-01-06

Family

ID=43561021

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009147742A Pending JP2011003138A (en) 2009-06-22 2009-06-22 Person identification system, person identification method, person identification device and person identification program

Country Status (1)

Country Link
JP (1) JP2011003138A (en)

Similar Documents

Publication Publication Date Title
KR101603017B1 (en) Gesture recognition device and gesture recognition device control method
JP7282851B2 (en) Apparatus, method and program
JP5381569B2 (en) Gesture recognition device, gesture recognition method, and gesture recognition program
CN104487915B (en) Maintain the continuity of amplification
JP5001260B2 (en) Object tracking method and object tracking apparatus
JP6364743B2 (en) Information processing apparatus, control method, program, and information system
JP6639091B2 (en) Display control device and display control method
TWI438702B (en) Method for setting dynamic enviromental image borders and method for instantly determining the content of staff member activities
JP2016099941A (en) System and program for estimating position of object
JP5754990B2 (en) Information processing apparatus, information processing method, and program
JP6210234B2 (en) Image processing system, image processing method, and program
EP2591460A1 (en) Method, apparatus and computer program product for providing object tracking using template switching and feature adaptation
JP2007233871A (en) Image processor, control method for computer, and program
JP6638723B2 (en) Image analysis device, image analysis method, and image analysis program
JP5668587B2 (en) Image processing apparatus, image processing method, and program
JPWO2014050432A1 (en) Information processing system, information processing method, and program
JP2010140425A (en) Image processing system
JP6283008B2 (en) Tracking device
JP5441151B2 (en) Facial image tracking device, facial image tracking method, and program
JP2006244272A (en) Hand position tracking method, device and program
JP6393409B2 (en) Image recognition system, camera state estimation device, and program
JP2011003138A (en) Person identification system, person identification method, person identification device and person identification program
WO2016142965A1 (en) Video processing device, video processing method, and storage medium storing video processing program
KR101837482B1 (en) Image processing method and apparatus, and interface method and apparatus of gesture recognition using the same
JP2019101745A (en) Biological image processing device, biological image processing method, and biological image processing program