JP2008012635A - Personal identification system - Google Patents
Personal identification system Download PDFInfo
- Publication number
- JP2008012635A JP2008012635A JP2006188096A JP2006188096A JP2008012635A JP 2008012635 A JP2008012635 A JP 2008012635A JP 2006188096 A JP2006188096 A JP 2006188096A JP 2006188096 A JP2006188096 A JP 2006188096A JP 2008012635 A JP2008012635 A JP 2008012635A
- Authority
- JP
- Japan
- Prior art keywords
- information
- specific person
- person
- feature information
- identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 description 52
- 238000001514 detection method Methods 0.000 description 24
- 238000004891 communication Methods 0.000 description 19
- 230000005540 biological transmission Effects 0.000 description 15
- 238000003384 imaging method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 238000001444 catalytic combustion detection Methods 0.000 description 7
- 238000005259 measurement Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000012546 transfer Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
- Image Processing (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、特定人物の識別を行う人物識別システムに関するものである。 The present invention relates to a person identification system for identifying a specific person.
従来、特定人物の識別を行う装置として、例えば、自走式の自動搬送ロボットであって、取扱い登録者の人体の特徴などを読み取って登録者を認識する登録者認識部を備えたものが知られている(例えば、特許文献1参照)。この装置は、取扱い登録者を認識することにより、搬送物の盗難などを防止してセキュリティ機能を向上させようとするものである。
しかしながら、このような装置にあっては、取扱い登録者の服装が変わったり、認識環境が変化した場合など、それに類似する登録者の特徴情報を取得していないと、登録者の識別が困難となる。そのような事態を回避するためには、登録者の特徴情報などを事前に多数記憶し、その記憶データに基づいて識別対象人物が登録者であるか否かを識別することが考えられる。ところが、登録者の特徴情報など多大なデータ数になると、登録者の固有の特徴が薄れて識別精度が低下するおそれがある。 However, in such a device, it is difficult to identify the registrant unless the registrant's feature information similar to that is acquired, such as when the registrant's clothes change or the recognition environment changes. Become. In order to avoid such a situation, it is conceivable to store a large number of registrants' characteristic information in advance and identify whether or not the person to be identified is a registrant based on the stored data. However, when the number of data such as the registrant's feature information becomes large, the registrant's unique features may fade and the identification accuracy may be reduced.
そこで本発明は、このような技術課題を解決するためになされたものであって、特定人物の識別精度の向上が図れる人物識別システムを提供することを目的とする。 Therefore, the present invention has been made to solve such a technical problem, and an object thereof is to provide a person identification system capable of improving the identification accuracy of a specific person.
すなわち本発明に係る人物識別システムは、特定人物の識別を行う人物識別システムであって、前記特定人物を追尾して移動し、前記特定人物の識別に用いる特徴情報を取得し、その特徴情報をその取得時の時刻情報と共に記録する自律移動体と、前記自律移動体により取得された特徴情報を入力し、前記特徴情報を取得した時刻情報に基づいて前記特定人物を識別するための特徴情報を選択する選択手段と、前記選択手段に選択された特徴情報を前記特定人物の識別に用いる識別情報として設定する識別学習手段とを備えて構成されている。 That is, the person identification system according to the present invention is a person identification system for identifying a specific person, tracking and moving the specific person, acquiring characteristic information used for identifying the specific person, and obtaining the characteristic information. Autonomous mobile object to be recorded together with time information at the time of acquisition, feature information acquired by the autonomous mobile object, and feature information for identifying the specific person based on the time information at which the feature information is acquired Selection means for selecting, and identification learning means for setting the feature information selected by the selection means as identification information used for identification of the specific person are configured.
この発明によれば、特定人物を追尾する自律移動体によって特定人物の特徴情報を取得することにより、特定人物の特徴情報を頻繁に取得することができる。このため、特定人物の最新の特徴情報を取得することができ、その最新の特徴情報を識別情報として特定人物の識別に用いることによって特定人物の識別精度の向上を図ることができる。 According to the present invention, the feature information of the specific person can be frequently obtained by acquiring the feature information of the specific person by the autonomous mobile body that tracks the specific person. Therefore, the latest feature information of the specific person can be acquired, and the identification accuracy of the specific person can be improved by using the latest feature information as identification information for identifying the specific person.
また本発明に係る人物識別システムにおいて、前記自律移動体は、前記特徴情報及び前記時刻情報と共に前記特徴情報の取得時の位置情報を記録し、前記選択手段は、前記特徴情報を取得した時刻情報及び位置情報に基づいて前記特定人物を識別するための特徴情報を選択することが好ましい。 Also, in the person identification system according to the present invention, the autonomous mobile body records position information at the time of acquisition of the feature information together with the feature information and the time information, and the selection unit acquires time information at which the feature information is acquired. It is preferable to select feature information for identifying the specific person based on the position information.
この場合、特定人物の特徴情報を取得した時刻情報及び位置情報に基づいて特定人物を識別するための特徴情報を選択することにより、特徴情報を取得してから経過時間が所定時間より長い特徴情報や特徴情報を取得した地点から特定人物を識別する地点が所定距離より遠い特徴情報を選択しないようにすることができる。これにより、特徴情報を選択する際に選択候補となる特徴情報を削減でき、選択処理が迅速に行える。また、有効な特徴情報のみを選択できるため、特定人物の識別精度の向上を図ることができる。 In this case, by selecting feature information for identifying the specific person based on the time information and position information at which the feature information of the specific person is acquired, the feature information whose elapsed time is longer than a predetermined time after acquiring the feature information In addition, it is possible to prevent selection of feature information in which a point for identifying a specific person from a point from which feature information is acquired is longer than a predetermined distance. Thereby, the feature information which becomes a selection candidate when selecting the feature information can be reduced, and the selection process can be performed quickly. In addition, since only effective feature information can be selected, it is possible to improve the identification accuracy of a specific person.
本発明によれば、特定人物を追従する自律移動体で特定人物の最新の特徴情報を取得することにより、特定人物の識別精度の向上を図ることができる。 According to the present invention, it is possible to improve the identification accuracy of a specific person by acquiring the latest feature information of the specific person with an autonomous mobile body that follows the specific person.
以下、添付図面を参照して本発明の実施形態について説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。
(第一実施形態)
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.
(First embodiment)
図1は本発明の第一実施形態に係る人物識別システムのモビルロボット及び特定人物を模式的に示した平面図、図2はモビルロボットの構造を示す側面図、図3はモビルロボット、基地局及び車両との関係を示す模式図、図4はモビルロボットにおける制御装置の構成概要を示すブロック図、図5は基地局の構成を示すブロック図、図6は車両の構成概要を示すブロック図である。 FIG. 1 is a plan view schematically showing a mobile robot and a specific person of the person identification system according to the first embodiment of the present invention, FIG. 2 is a side view showing the structure of the mobile robot, and FIG. 3 is a mobile robot and a base station FIG. 4 is a block diagram showing a configuration outline of a control device in a mobile robot, FIG. 5 is a block diagram showing a configuration of a base station, and FIG. 6 is a block diagram showing a configuration outline of the vehicle. is there.
図1に示すように、特定人物Mは、識別すべき対象となる人物であり、例えばモビルロボットRの使用者、オーナー、もしくは主人である。モビルロボットRは、特定人物Mを追尾して移動する自律移動体である。このモビルロボットRは、特定人物Mと所定の位置関係を保ちながら移動するものであり、例えば特定人物Mの近傍において特定人物Mおよびその周辺状況を観測しつつその観測情報に基づいて特定人物Mを先導し、あるいは特定人物Mに追従する。 As shown in FIG. 1, the specific person M is a person to be identified, for example, a user, owner, or master of the mobile robot R. The mobile robot R is an autonomous mobile body that moves by tracking the specific person M. The mobile robot R moves while maintaining a predetermined positional relationship with the specific person M. For example, the mobile robot R observes the specific person M and its surroundings in the vicinity of the specific person M based on the observation information. Or follow a specific person M.
図2に示すように、モビルロボットRは、走行装置1により移動可能なボディR1と、このボディR1に対して回転可能に接続されたヘッドR2とを備えている。ボディR1には、報知、警報、案内などの各種のメッセージを画像や文字により表示可能なディスプレイ2が設置されている。そして、このボディR1には、電源としてのバッテリ3、ヘッドR2を回転駆動するためのヘッド駆動モータ4の他、走行装置1、ディスプレイ2、ヘッド駆動モータ4などを制御するための制御装置5が内蔵されている。
As shown in FIG. 2, the mobile robot R includes a body R1 that can be moved by the
一方、モビルロボットRのヘッドR2には、特定人物Mおよびその周辺に存在する障害物(他の人物や動物、構造物、設置物、車両等)などを含む周辺状況をステレオ画像として観測するための左右一対のCCDカメラ(または赤外線カメラ)6A、6Bと、報知、警報、案内などの各種メッセージの音声を発声可能なスピーカ7とが設置されている。また、ヘッドR2には、他のモビルロボットや基地局との間で送受信を行うためのアンテナ8が設けられている。さらに、ボディR1には、モビルロボットRが自己位置を検出する自己位置検出手段となる位置センサ9が設けられている。位置センサ9は、たとえばGPS装置からなり、衛星と通信などをすることによって、自己の位置を検出している。位置センサ9により検出された位置情報は、データベース20に記録される。その際、位置情報は、時刻情報と共に記録することが好ましい。
On the other hand, in the head R2 of the mobile robot R, in order to observe a surrounding situation including a specific person M and obstacles (another person, animal, structure, installation, vehicle, etc.) existing around it as a stereo image. A pair of left and right CCD cameras (or infrared cameras) 6A and 6B and a
図3に示すように、モビルロボットRと基地局Bとの間では、信号の送受信が可能となっている。基地局Bは、モビルロボットRが取得した情報を収集する情報管理センタとして機能するものであり、例えば基地局Bと無線によりモビルロボットRと通信可能となっている。基地局Bは、センタ制御装置B1、送受信用のアンテナB4などを備えている。 As shown in FIG. 3, signals can be transmitted and received between the mobile robot R and the base station B. The base station B functions as an information management center that collects information acquired by the mobile robot R. For example, the base station B can communicate with the mobile robot R wirelessly with the base station B. The base station B includes a center control device B1, a transmission / reception antenna B4, and the like.
また、基地局Bと車両Cとの間では、信号の送受信が可能となっている。車両Cは、特定人物Mが乗用する移動体であり、例えば基地局Bと無線によりモビルロボットRと通信可能となっている。車両Cは、基地局Bから送信される特定人物Mの特徴情報を受信し、その特徴情報を用いて特定人物Mの識別処理を行う。 In addition, signals can be transmitted and received between the base station B and the vehicle C. The vehicle C is a moving body that the specific person M rides on, and can communicate with the mobile robot R wirelessly with the base station B, for example. The vehicle C receives the characteristic information of the specific person M transmitted from the base station B, and performs identification processing of the specific person M using the characteristic information.
図1および図2に示すように、走行装置1は、例えば、ホイールインモータ1A、1Bにより回転方向および回転速度が左右独立に制御される左右一対の駆動車輪1C、1Dと、360度の旋回が可能なキャスタ車輪1Eと、を有する。
As shown in FIGS. 1 and 2, the
この走行装置1は、左右一対の駆動車輪1C、1Dが同方向に前転駆動または後転駆動されることでモビルロボットRを前進または後退させる。その際、左右一対の駆動車輪1C、1Dの回転速度が同速度であればモビルロボットRを直進させ、左右一対の駆動車輪1C、1Dの回転速度に差があれば駆動車輪1C、1Dのうち回転速度の遅い側にモビルロボットRを旋回させる。そして、この走行装置1は、左右一対の駆動車輪1C、1Dが同速度で相互に逆方向に回転駆動されると、モビルロボットRをその場で左右の何れかに回転させる。
The
ここで、制御装置5は、ECU(ElectricControl Unit)等のマイクロコンピュータのハードウェアおよびソフトウェアを利用して構成されている。この制御装置5は、ホイールインモータ1A、1Bやヘッド駆動モータ4の駆動回路、ディスプレイ2、CCDカメラ6A、6B、スピーカ7等との間の入出力インターフェースI/OおよびA/Dコンバータの他、プログラムおよびデータを記憶したROM(Read Only Memory)、入力データ等を一時記憶するRAM(Random Access Memory)、プログラムを実行するCPU(Central Processing Unit)等をハードウェアとして備えている。
Here, the
そして、この制御装置5には、図4に示すように、画像生成部11、特定人物検出部12、ヘッド駆動モータ制御部13、走行障害物検出部14、ホイールインモータ制御部1、報知情報作成部16、表示制御部17、通信部18、計時部19及びデータベース20を備えている。
As shown in FIG. 4, the
CCDカメラ6A、6Bは、特定人物Mを含む周辺状況を撮影し、撮影データを計測時刻情報とともに画像生成部11に所定時間毎に出力する。画像生成部11は、左右のCCDカメラ6A、6Bから出力される左右の撮影データおよび計測時刻情報に基づいて各計測時刻におけるステレオ画像を順次生成し、その画像データを計測時刻情報とともに特定人物検出部12、走行障害物検出部14及びデータベース20へ所定時間毎に繰り返して出力する。計時部19は、時刻情報を生成して、画像生成部11に時刻情報信号を出力している。
The
特定人物検出部12は、画像生成部11から順次出力される画像データに基づいて特定人物Mの検出を行うものであり、例えば、画像生成部11から順次出力される画像データに基づいて撮影画像のエッジ処理を行い、予め記憶されている特定人物Mの輪郭モデルとのマッチング処理により特定人物Mを検出する。特定人物検出部12は、検出された特定人物Mのステレオ画像をステレオマッチング処理することにより、特定人物Mの3次元位置を三角測量の原理で所定時間毎に推測して特定人物Mの3次元データを検出する。特定人物検出部12は、検出した特定人物Mの3次元位置データをヘッド駆動モータ制御部13およびホイールインモータ制御部15に出力する。
The specific
ヘッド駆動モータ制御部13は、出力された特定人物Mの3次元位置データに基づき、特定人物Mがたとえば画像中央に位置するようにヘッド駆動モータ4の回転を制御してモビルロボットRのヘッドR2を回転させる。
The head drive
走行障害物検出部14は、画像生成部11から所定時間毎に順次出力された画像データに基づいて撮影画像のエッジ処理を行うことにより、撮影画像中に存在する障害物(他の人物や動物、構造物、設置物、車両等)を検出する。走行障害物検出部14は、検出された障害物のステレオ画像をステレオマッチング処理することにより、障害物の3次元位置を三角測量の原理で所定時間毎に推測して障害物の3次元データを検出する。走行障害物検出部14は、検出した障害物の3次元位置データをホイールインモータ制御部15および報知情報作成部16に出力する。
The traveling
ホイールインモータ制御部15は、出力された特定人物Mおよび障害物の3次元位置データに基づいて、モビルロボットRが特定人物Mの近傍において障害物を避けつつ特定人物Mを先導し、あるいは特定人物Mに追従するように、ホイールインモータ1A、1Bの回転を個別に制御して走行装置1の駆動車輪1C、1Dの回転方向および回転速度を個別に制御する。
The wheel-in
報知情報作成部16は、特定人物検出部12から出力された特定人物Mおよび走行障害物検出部14から出力された障害物の3次元位置データに基づき、モビルロボットRが特定人物Mの近傍において障害物があるか否かを検出する。また、障害物が検出された場合には、スピーカ7に障害物がある旨を報知させるとともに、ディスプレイ2に表示させて、特定人物Mに障害物の存在を知らせる。
The notification
表示制御部17は、報知情報作成部16から表示情報を受けてディスプレイ2に画像表示信号や表示制御信号を出力してディスプレイ2の表示制御を行う。
The
通信部18は、CCDカメラ6A、6Bで撮像した画像データを撮像時の時刻情報及び撮像時の位置情報と共に、図3に示す基地局Bへアンテナ8を介して送信する。その際、通信部18は、撮像時の位置情報を送信せず、画像データを撮像時の時刻情報と共に送信する場合もある。また、通信部18は、基地局Bのセンタ制御装置B1から送信される情報を受信し、受信した情報をデータベース20に記録する。
The
図5に示すように、センタ制御装置B1は、通信部31、データベース32、特徴情報選択部33、および識別学習部34を備えている。また、センタ制御装置B1には、モニタB2、表示内容入力部B3、およびアンテナB4が接続されている。
As illustrated in FIG. 5, the center control device B1 includes a
通信部31は、モビルロボットRから送信される画像データ、撮像時の時刻情報、撮像時の位置情報を受信し、それらの受信データや受信情報をデータベース32に出力する。データベース32は、画像データ、その撮像時の時刻情報及び撮像時の位置情報を記録する。このデータベース32は、表示内容入力部B23の指令信号を受けて所定のデータや情報をモニタB2に出力する。
The
特徴情報選択部33は、特定人物Mに関する特徴情報として特定人物Mを撮像した画像データを入力し、その画像データを撮像した時刻情報に基づいて特定人物Mを識別するための画像データを選択する。例えば、時刻情報に基づいて最新の画像データを所定数選択し、その選択した画像データを特定人物Mを識別するための画像データとして識別学習部34に出力する。その際、位置情報に基づいて選択する画像データをさらに選別することが好ましい。
The feature
識別学習部34は、特徴情報選択部33に選択された画像データを入力し、その画像データを特定人物Mの識別に用いる識別情報として設定する。設定された識別情報は、データベース32に出力され、通信部31により車両Cに送信される。
The
図6に示すように、車両Cは、アンテナ41、通信部42、学習結果保存部43、および対象検出部44を備えて構成されている。通信部42は、アンテナ41を通じて基地局Bから送信される特定人物Mの識別情報を受信する。受信された識別情報は、学習結果保存部43に記録され、対象検出部44により行われる特定人物Mの識別に用いられる。
As shown in FIG. 6, the vehicle C includes an
次に本実施形態に係る人物識別システムの動作について説明する。 Next, the operation of the person identification system according to this embodiment will be described.
まず、本実施形態に係る人物識別システムにおけるモビルロボットRの動作について説明する。図7は、モビルロボットRの動作を示すフローチャートである。 First, the operation of the mobile robot R in the person identification system according to this embodiment will be described. FIG. 7 is a flowchart showing the operation of the mobile robot R.
図7のS10に示すように、まず撮像画像の読み込み処理が行われる。この処理は、CCD6A、6Bで撮像された撮像画像を読み込む処理である。その画像データは、画像生成部11に入力され、その撮像時の時刻情報と共にデータベース20に記録される。
As shown in S10 of FIG. 7, first, a captured image reading process is performed. This process is a process of reading a captured image captured by the
そして、S12に移行し、位置検出処理が行われる。位置検出処理は、位置センサ9で検出された信号に基づいてモビルロボットRの位置を検出する処理である。検出された位置情報は、画像データ、その撮像時の時刻情報と共にデータベース20に記録される。
And it transfers to S12 and a position detection process is performed. The position detection process is a process for detecting the position of the mobile robot R based on the signal detected by the
そして、S14に移行し、送信処理が行われる。送信処理は、データベース20に記録されている画像データ、時刻情報、位置情報を基地局Bに送信する処理である。そして、S16に移行し、追従制御処理が行われる。追従制御処理は、特定人物Mに追従してモビルロボットRを移動させる処理である。
And it transfers to S14 and a transmission process is performed. The transmission process is a process of transmitting image data, time information, and position information recorded in the
例えば、CCDカメラ6A、6Bの左右の撮像画像に基づくステレオ視によりモビルロボットRから特定人物Mの相対位置が検出され、モビルロボットRから特定人物Mまでの距離が所定範囲内になるようにホイールインモータ制御部15からホイールインモータ4に制御信号が出力され、特定人物Mに追従するようにモビルロボットRを移動させる。
For example, the relative position of the specific person M from the mobile robot R is detected by stereo vision based on the left and right captured images of the
そして、S18に移行し、自己が移動したか否かが判断される。この判断処理は、位置センサ9の検出信号に基づいて自己の位置を検出し、その位置が移動したか否かによって行えばよい。
Then, the process proceeds to S18 where it is determined whether or not the self has moved. This determination process may be performed by detecting its own position based on the detection signal of the
S18にて自己が移動していないと判断された場合には、自己が移動したか否かの判断処理が継続される。一方、S18にて自己が移動していると判断された場合には、制御処理を終了する。この場合、再びS10の撮像画像の読み込み処理が実行され、制御処理が繰り返される。 If it is determined in S18 that the self has not moved, the process of determining whether or not the self has moved is continued. On the other hand, if it is determined in S18 that the user is moving, the control process is terminated. In this case, the captured image reading process of S10 is executed again, and the control process is repeated.
次に、本実施形態に係る人物識別システムにおける基地局Bの動作について説明する。図8は、基地局Bの動作を示すフローチャートである。 Next, the operation of the base station B in the person identification system according to this embodiment will be described. FIG. 8 is a flowchart showing the operation of the base station B.
図8のS20に示すように、まず受信処理が行われる。受信処理は、モビルロボットRからの信号送信があった場合にその信号を受信する処理である。この受信処理は、通信部31により行われ、受信信号からカメラ6A、6Bで撮像された画像データ、その撮像時の時刻情報及び位置情報が取得される。
As shown in S20 of FIG. 8, a reception process is first performed. The reception process is a process of receiving a signal when there is a signal transmission from the mobile robot R. This reception process is performed by the
そして、S22に移行し、カメラ6A、6Bで撮像された画像データ、その撮像時の時刻情報及び位置情報がデータベース32に記録保存される。そして、S24に移行し、特徴情報選択処理が行われる。特徴情報選択処理は、データベース32に記録された画像データの中から特定人物Mを識別するための画像データを選択する処理である。例えば、データベース32に記録された画像データの中から時刻情報に基づいて最新の画像データが所定数選択される。
Then, the process proceeds to S <b> 22, and image data captured by the cameras 6 </ b> A and 6 </ b> B, time information and position information at the time of capturing are recorded and stored in the
そして、S26に移行し、識別学習処理が行われる。識別学習処理は、特徴情報選択処理により選択された画像データを特定人物Mの識別に用いる識別情報として設定する処理である。そして、S28に移行し、データ送信処理が行われる。データ送信処理は、識別情報として設定された画像データを送信処理である。例えば、通信部31からアンテナB4を通じて識別情報が送信される。このデータ送信処理を終えたら、制御処理を終了する。
And it transfers to S26 and an identification learning process is performed. The identification learning process is a process of setting the image data selected by the feature information selection process as identification information used for identifying the specific person M. Then, the process proceeds to S28, and a data transmission process is performed. The data transmission process is a process for transmitting image data set as identification information. For example, identification information is transmitted from the
次に、本実施形態に係る人物識別システムにおける車両Cの動作について説明する。 Next, the operation of the vehicle C in the person identification system according to this embodiment will be described.
図6において、車両Cは、アンテナ41及び通信部42を通じ、基地局Bから送信される識別情報を含む送信信号を受信する。受信された識別情報は、通信部42から学習結果保存部43に出力され、学習結果保存部43に記録保持される。対象検出部44は、学習結果保存部43に記録された識別情報を用いて識別対象が特定人物Mであるかを識別して特定人物Mの検出を行う。
In FIG. 6, the vehicle C receives a transmission signal including identification information transmitted from the base station B through the
例えば、図示しないカメラが車両Cに設置され、そのカメラで撮像された画像に対し、特定人物Mの識別情報である画像データを画像テンプレートとしてパターンマッチングを行い、撮像画像に特定人物Mが撮影されているか否かを判定する。 For example, a camera (not shown) is installed in the vehicle C, pattern matching is performed on an image captured by the camera using image data that is identification information of the specific person M as an image template, and the specific person M is captured in the captured image. It is determined whether or not.
以上のように、本実施形態に係る人物識別システムによれば、特定人物Mを追尾するモビルロボットRによって特定人物Mの特徴情報を取得することにより、特定人物Mの特徴情報を頻繁に取得することができる。このため、特定人物Mの最新の特徴情報を取得することができ、その最新の特徴情報を識別情報として特定人物Mの識別に用いることによって特定人物Mの識別精度の向上を図ることができる。 As described above, according to the person identification system according to the present embodiment, the feature information of the specific person M is frequently acquired by acquiring the characteristic information of the specific person M by the mobile robot R that tracks the specific person M. be able to. Therefore, the latest feature information of the specific person M can be acquired, and the identification accuracy of the specific person M can be improved by using the latest feature information as identification information for identifying the specific person M.
なお、本実施形態では、基地局Bで識別学習した結果を車両Cに送信する場合について説明したが、その識別学習結果をモビルロボットRに送信してもよい。例えば、図9に示すように、モビルロボットRの制御装置5内に学習結果保存部43、対象検出部44が設けられる。そして、アンテナ8及び通信部18を通じて基地局Bから送信される識別情報を含む送信信号を受信し、その受信された識別情報を学習結果保存部43で記録保持し、学習結果保存部43に記録された識別情報を用いて識別対象が特定人物Mであるかを識別して特定人物Mの検出を行う。このような人物識別システムにおいても、上述した人物識別システムと同様な作用効果が得られる。
(第二実施形態)
In addition, although this embodiment demonstrated the case where the result of identification learning by the base station B was transmitted to the vehicle C, you may transmit the identification learning result to the mobile robot R. For example, as shown in FIG. 9, a learning
(Second embodiment)
次に本発明の第二実施形態に係る人物識別システムについて説明する。 Next, a person identification system according to the second embodiment of the present invention will be described.
本実施形態に係る人物識別システムは、上述した第一実施形態に係る人物識別システムとほぼ同様に構成され、車両Cの位置を加味して特定人物Mの特徴情報の選択を行う点で異なっている。 The person identification system according to the present embodiment is configured in substantially the same manner as the person identification system according to the first embodiment described above, and is different in that the feature information of the specific person M is selected in consideration of the position of the vehicle C. Yes.
本実施形態に係る人物識別システムにおいて、モビルロボットRは、図1〜4に示すものと同様なものが用いられる。基地局Bは、図5に示すものと同様な構成のものが用いられるが、特徴情報選択部33により実行される特徴情報選択処理が車両Cの位置情報を加味して特定人物Mの特徴情報を選択する。
In the person identification system according to the present embodiment, a mobile robot R similar to that shown in FIGS. The base station B has the same configuration as that shown in FIG. 5, but the feature information selection process executed by the feature
例えば、データベース32に記録された特定人物Mの特徴情報、例えば画像データの中から特定人物Mを識別するための特徴情報を選択する際に、モビルロボットRの位置情報と車両Cの位置情報に基づいてモビルロボットRと車両Cの距離が設定距離内であるか否かを判断し、その距離が設定距離内でない場合にはモビルロボットRから送信される特定人物Mの特徴情報を選択対象から除外する。そして、除外された以外の特徴情報について、特徴情報を取得した時刻情報に基づいて最新の特徴情報を所定数選択する。
For example, when selecting the feature information of the specific person M recorded in the
この本実施形態に係る人物識別システムの車両Cとしては、図10、11に示すものが用いられる。図10は車両Cの構成概要を示すブロック図であり、図11は、車両Cにおける位置情報送信処理を示すフローチャートである。 As the vehicle C of the person identification system according to this embodiment, the vehicle shown in FIGS. 10 and 11 is used. FIG. 10 is a block diagram showing an outline of the configuration of the vehicle C, and FIG. 11 is a flowchart showing position information transmission processing in the vehicle C.
図10に示すように、車両Cは、アンテナ41、通信部42、学習結果保存部43、対象検出部44に加え、位置センサ45を備えている。位置センサ45は、車両Cの位置を検出するセンサであり、例えばGPS装置が用いられる。位置センサ45により検出された車両Cの位置情報は、通信部42に出力される。そして、その位置情報は、通信部42及びアンテナ41を通じて基地局Bに送信される。
As shown in FIG. 10, the vehicle C includes a
図11に示すように、車両Cの位置情報送信処理は、まず車両Cの位置検出処理が行われる(S40)。この位置検出処理は、位置センサ45により車両Cの位置を検出させる処理である。位置センサ45により検出された位置情報は、通信部42などに送信情報の一部として保存記録される。
As shown in FIG. 11, in the position information transmission process of the vehicle C, the position detection process of the vehicle C is first performed (S40). This position detection process is a process in which the
そして、S42に移行し、送信処理が行われる。送信処理は、車両Cの位置情報を基地局Bに送信する処理である。そして、移動距離算出処理、経過時間計測処理が行われる(S44、S46)。移動処理算出処理は、位置検出してから車両Cが移動した距離Dを算出する処理である。経過時間計測処理は、位置検出時からの経過時間Tを計測する処理である。 And it transfers to S42 and a transmission process is performed. The transmission process is a process of transmitting the position information of the vehicle C to the base station B. Then, a movement distance calculation process and an elapsed time measurement process are performed (S44, S46). The movement process calculation process is a process of calculating the distance D that the vehicle C has moved after detecting the position. The elapsed time measurement process is a process of measuring an elapsed time T from the time of position detection.
そして、S48に移行し、車両の移動距離Dが規定値D1以上であり、または経過時間Tが規定値T1以上であるかが判断される。車両の移動距離Dが規定値D1以上であり、または経過時間Tが規定値T1以上であると判断された場合には、S40に戻り位置検出処理が再び行われる。一方、車両の移動距離Dが規定値D1以上でなく、かつ経過時間Tが規定値T1以上でないと判断された場合には、制御処理を終了する。 Then, the process proceeds to S48, where it is determined whether the moving distance D of the vehicle is equal to or greater than a specified value D1, or whether the elapsed time T is equal to or greater than the specified value T1. If it is determined that the moving distance D of the vehicle is greater than or equal to the specified value D1 or the elapsed time T is greater than or equal to the specified value T1, the process returns to S40 and the position detection process is performed again. On the other hand, when it is determined that the moving distance D of the vehicle is not equal to or greater than the specified value D1 and the elapsed time T is not equal to or greater than the specified value T1, the control process is terminated.
以上のように、本実施形態に係る人物識別システムによれば、第一実施形態に係る人物識別システムと同様に最新の特徴情報を識別情報として特定人物Mの識別に用いることによって特定人物Mの識別精度の向上を図ることができるという効果に加え、特徴情報選択処理を迅速に行えるという効果を奏する。 As described above, according to the person identification system according to the present embodiment, the latest feature information is used as identification information for identification of the specific person M, as in the person identification system according to the first embodiment. In addition to the effect that the identification accuracy can be improved, the feature information selection process can be performed quickly.
すなわち、本実施形態に係る人物識別システムによれば、特定人物Mの特徴情報を取得した時刻情報及び位置情報に基づいて特定人物Mを識別するための特徴情報を選択することにより、特徴情報を取得してから経過時間が所定時間より長い特徴情報や特徴情報を取得した地点から特定人物Mを識別する地点が所定距離より遠い特徴情報を選択しないようにすることができる。これにより、特徴情報を選択する際に選択候補となる特徴情報を削減でき、選択処理が迅速に行える。また、有効な特徴情報のみを選択できるため、特定人物Mの識別精度の向上を図ることができる。 That is, according to the person identification system according to the present embodiment, the feature information is selected by selecting the feature information for identifying the specific person M based on the time information and the position information when the characteristic information of the specific person M is acquired. It is possible not to select feature information whose elapsed time is longer than a predetermined time after acquisition or feature information where the specific person M is identified farther than a predetermined distance from the point where the feature information is acquired. Thereby, the feature information which becomes a selection candidate when selecting the feature information can be reduced, and the selection process can be performed quickly. Further, since only effective feature information can be selected, the identification accuracy of the specific person M can be improved.
なお、上述した各実施形態は、本発明に係る人物識別システムの一例を示すものである。本発明に係る人物識別システムは、これらの実施形態に係る人物識別システムに限られるものではなく、各請求項に記載した要旨を変更しない範囲で、実施形態に係る人物識別システムを変形し、又は他のものに適用したものであってもよい。 Each embodiment mentioned above shows an example of a person identification system concerning the present invention. The person identification system according to the present invention is not limited to the person identification system according to these embodiments, and the person identification system according to the embodiments may be modified or changed without changing the gist described in each claim, or It may be applied to other things.
1…走行装置、2…ディスプレイ、5…制御装置、6A、6B…カメラ、7…スピーカ、8…アンテナ、9…位置センサ、B…基地局、C…車両、M…特定人物、R…モビルロボット(自律移動体)。
DESCRIPTION OF
Claims (2)
前記特定人物を追尾して移動し、前記特定人物の識別に用いる特徴情報を取得し、その特徴情報をその取得時の時刻情報と共に記録する自律移動体と、
前記自律移動体により取得された特徴情報を入力し、前記特徴情報を取得した時刻情報に基づいて前記特定人物を識別するための特徴情報を選択する選択手段と、
前記選択手段に選択された特徴情報を前記特定人物の識別に用いる識別情報として設定する識別学習手段と、
を備えた人物識別システム。 A person identification system for identifying a specific person,
An autonomous mobile that tracks and moves the specific person, acquires characteristic information used to identify the specific person, and records the characteristic information together with time information at the time of acquisition;
Selection means for inputting feature information acquired by the autonomous mobile body and selecting feature information for identifying the specific person based on time information when the feature information is acquired;
Identification learning means for setting the feature information selected by the selection means as identification information used for identifying the specific person;
A person identification system.
前記選択手段は、前記特徴情報を取得した時刻情報及び位置情報に基づいて前記特定人物を識別するための特徴情報を選択すること、
を特徴とする請求項1に記載の人物識別システム。 The autonomous mobile body records the position information at the time of acquisition of the feature information together with the feature information and the time information,
The selection means selects feature information for identifying the specific person based on time information and position information obtained from the feature information;
The person identification system according to claim 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006188096A JP2008012635A (en) | 2006-07-07 | 2006-07-07 | Personal identification system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006188096A JP2008012635A (en) | 2006-07-07 | 2006-07-07 | Personal identification system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008012635A true JP2008012635A (en) | 2008-01-24 |
Family
ID=39070174
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006188096A Pending JP2008012635A (en) | 2006-07-07 | 2006-07-07 | Personal identification system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008012635A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017200821A (en) * | 2017-07-24 | 2017-11-09 | みこらった株式会社 | Protection apparatus and protection system |
JP2017222350A (en) * | 2017-07-24 | 2017-12-21 | みこらった株式会社 | Protection device and protection system |
JP6393433B1 (en) * | 2018-02-09 | 2018-09-19 | 株式会社ビコー | Information processing apparatus, information processing method, and program |
JP2020502646A (en) * | 2017-06-15 | 2020-01-23 | 浙江吉利控股集団有限公司Zhejiang Geely Holding Group Co.,Ltd. | Mobile power supply for outdoor power supply |
JP2021068025A (en) * | 2019-10-18 | 2021-04-30 | トヨタ自動車株式会社 | Information processing device, program and control method |
JP2022515591A (en) * | 2018-11-29 | 2022-02-21 | ベイジン センスタイム テクノロジー デベロップメント シーオー.,エルティーディー | 3D detection method, device, medium and device of target object |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11175730A (en) * | 1997-12-05 | 1999-07-02 | Omron Corp | Human body detection and trace system |
JP2002312035A (en) * | 2001-04-16 | 2002-10-25 | Toshiba Tec Corp | Autonomous traveling robot |
JP2004302645A (en) * | 2003-03-28 | 2004-10-28 | Sony Corp | Face registration device, face registration method, recording medium and robot device |
JP2004299025A (en) * | 2003-04-01 | 2004-10-28 | Honda Motor Co Ltd | Mobile robot control device, mobile robot control method and mobile robot control program |
-
2006
- 2006-07-07 JP JP2006188096A patent/JP2008012635A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11175730A (en) * | 1997-12-05 | 1999-07-02 | Omron Corp | Human body detection and trace system |
JP2002312035A (en) * | 2001-04-16 | 2002-10-25 | Toshiba Tec Corp | Autonomous traveling robot |
JP2004302645A (en) * | 2003-03-28 | 2004-10-28 | Sony Corp | Face registration device, face registration method, recording medium and robot device |
JP2004299025A (en) * | 2003-04-01 | 2004-10-28 | Honda Motor Co Ltd | Mobile robot control device, mobile robot control method and mobile robot control program |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020502646A (en) * | 2017-06-15 | 2020-01-23 | 浙江吉利控股集団有限公司Zhejiang Geely Holding Group Co.,Ltd. | Mobile power supply for outdoor power supply |
JP2017200821A (en) * | 2017-07-24 | 2017-11-09 | みこらった株式会社 | Protection apparatus and protection system |
JP2017222350A (en) * | 2017-07-24 | 2017-12-21 | みこらった株式会社 | Protection device and protection system |
JP6393433B1 (en) * | 2018-02-09 | 2018-09-19 | 株式会社ビコー | Information processing apparatus, information processing method, and program |
JP2019139467A (en) * | 2018-02-09 | 2019-08-22 | 株式会社ビコー | Information processing device, information processing method and program |
JP2022515591A (en) * | 2018-11-29 | 2022-02-21 | ベイジン センスタイム テクノロジー デベロップメント シーオー.,エルティーディー | 3D detection method, device, medium and device of target object |
JP2021068025A (en) * | 2019-10-18 | 2021-04-30 | トヨタ自動車株式会社 | Information processing device, program and control method |
JP7156242B2 (en) | 2019-10-18 | 2022-10-19 | トヨタ自動車株式会社 | Information processing device, program and control method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101776823B1 (en) | A mobile robot localization method and system via indoor surveillance cameras | |
JP6169544B2 (en) | Driving support control device | |
JP6452801B2 (en) | Method and apparatus for moving a car to a target position | |
CN105916758A (en) | Method for autonomous parking of a vehicle, driver assistance device for carrying out the method, and vehicle comprising the driver assistance device | |
JP6047083B2 (en) | Parking assistance system | |
JP5310285B2 (en) | Self-position estimation apparatus and self-position estimation method | |
JP2008012635A (en) | Personal identification system | |
JP2007035031A (en) | Mobile body capable of video recognition, and mobile body guidance system including the same | |
JP2004299025A (en) | Mobile robot control device, mobile robot control method and mobile robot control program | |
JP2007199965A (en) | Autonomous mobile device | |
US20210008999A1 (en) | Autonomous alignment of a vehicle and a wireless charging device | |
JP4940698B2 (en) | Autonomous mobile robot | |
JP7274970B2 (en) | Tracking target identification system and tracking target identification method | |
CN106874887A (en) | Based on the farm machinery navigation control method that farm environment is perceived | |
JP2017146945A (en) | Lead robot | |
JP2010061484A (en) | Mobile object and recovery method from position prediction error state of mobile object | |
JP2009237851A (en) | Mobile object control system | |
JP2008012636A (en) | Personal identification system | |
CN115053279A (en) | Driving assistance device, vehicle, and driving assistance method | |
JP2007229817A (en) | Autonomous mobile robot | |
CN107862902A (en) | A kind of auxiliary parking system based on image analysing computer and contrast | |
JP2007286740A (en) | Autonomous movable body | |
JP4702154B2 (en) | Autonomous mobile object and information display system | |
JP2018127065A (en) | Parking support device | |
JP4377346B2 (en) | Mobile robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090609 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101214 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110426 |