JP2012107944A - Target identification device and target identification method - Google Patents

Target identification device and target identification method Download PDF

Info

Publication number
JP2012107944A
JP2012107944A JP2010256088A JP2010256088A JP2012107944A JP 2012107944 A JP2012107944 A JP 2012107944A JP 2010256088 A JP2010256088 A JP 2010256088A JP 2010256088 A JP2010256088 A JP 2010256088A JP 2012107944 A JP2012107944 A JP 2012107944A
Authority
JP
Japan
Prior art keywords
moving object
light
analysis
unit
infrared
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010256088A
Other languages
Japanese (ja)
Other versions
JP5605565B2 (en
Inventor
Toru Murase
亨 村瀬
Shigenori Takagishi
成典 高岸
Miki Kusao
幹 草尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2010256088A priority Critical patent/JP5605565B2/en
Publication of JP2012107944A publication Critical patent/JP2012107944A/en
Application granted granted Critical
Publication of JP5605565B2 publication Critical patent/JP5605565B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Geophysics And Detection Of Objects (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a target identification device capable of accurately identifying, if a moving body is detected, whether the moving body is a human being or not.SOLUTION: As a target identification device, a monitoring system 3 comprises: an infrared ray irradiator 15 configured to irradiate, when a moving body is detected, the moving body with a plurality of infrared rays having different wavelengths in turn; an acquisition unit 21 configured to receive reflectance from the moving body to each infrared ray applied from the infrared ray irradiator 15 so as to obtain an image of the moving body corresponding to each infrared ray; an analyzer 22 configured to detect spectra of the plurality of infrared rays corresponding to the moving body based on an image obtained by the acquisition unit 21, so as to analyze the material of the moving body based on a result of the detection; and an identification unit 23 configured to identify a type of the moving body based on a result of the analysis by the analyzer 22.

Description

本発明は、対象識別装置及び対象識別方法に関し、特に、所定の撮影エリア内に含まれている移動物体が人間であるか否かを識別するための対象識別装置及び対象識別方法に関する。   The present invention relates to a target identification device and a target identification method, and more particularly, to a target identification device and a target identification method for identifying whether or not a moving object included in a predetermined imaging area is a human being.

監視カメラによって所定の監視エリアを撮影することにより、監視エリアへの侵入者を検知する監視装置が広く実用化されている。このような監視装置においては、例えば、人間の外見に関する複数のテンプレート画像を予め準備し、当該テンプレート画像を用いたパターンマッチングを行うことによって、撮影画像内に人間(侵入者)が含まれているか否かが判定される。また、撮影画像内に含まれている移動物体の色を分析することにより、肌色が抽出されればその移動物体は人間であると判定する技術もある。   A monitoring device that detects an intruder into a monitoring area by photographing a predetermined monitoring area with a monitoring camera has been widely put into practical use. In such a monitoring apparatus, for example, by preparing a plurality of template images related to the appearance of a human in advance and performing pattern matching using the template image, whether a human (intruder) is included in the captured image It is determined whether or not. There is also a technique for determining that a moving object is a human if a skin color is extracted by analyzing the color of the moving object included in the captured image.

下記特許文献1には、屋内への侵入者を監視する監視装置が開示されている。当該監視装置は、カメラによって屋内を撮影し、フレーム間の差分画像に基づいて変化領域を抽出し、変化領域に関してパターンマッチングを行うことによって、移動物体(侵入者)を検出する。   Patent Document 1 below discloses a monitoring device that monitors intruders indoors. The monitoring apparatus captures indoors with a camera, extracts a change area based on a difference image between frames, and detects a moving object (intruder) by performing pattern matching on the change area.

特許第3423861号公報Japanese Patent No. 3423861

しかしながら、テンプレート画像を用いたパターンマッチングによって人間の有無を判定する手法には、以下のような問題がある。つまり、山中に設置された通信基地局等の特定施設への侵入者を監視する場合には、外見が人間に類似した動物(例えば猿)と人間とを正確に区別することが困難である。そのため、動物が特定施設の監視エリアに近付いた場合に、当該動物が侵入者として誤って検知される可能性が高い。   However, the method for determining the presence or absence of a person by pattern matching using a template image has the following problems. That is, when monitoring an intruder into a specific facility such as a communication base station installed in a mountain, it is difficult to accurately distinguish an animal (eg, a monkey) whose appearance is similar to a human and a human. Therefore, when an animal approaches the monitoring area of a specific facility, there is a high possibility that the animal is erroneously detected as an intruder.

また、肌色抽出によって人間の有無を判定する手法には、以下のような問題がある。つまり、夜間において赤外線カメラを用いて監視を行う場合には、赤外線カメラによってはモノクロの映像しか取得できないため、色情報を利用できない。その結果、肌色抽出によって移動物体が人間であるか否かを識別することは困難である。   In addition, the method for determining the presence or absence of humans by skin color extraction has the following problems. That is, when monitoring is performed using an infrared camera at night, color information cannot be used because only a monochrome image can be acquired by the infrared camera. As a result, it is difficult to identify whether or not the moving object is a human by skin color extraction.

本発明はかかる問題を解決するために成されたものであり、移動物体が検出された場合に、その移動物体が人間であるか否かを正確に識別することが可能な、対象識別装置及び対象識別方法を得ることを目的とするものである。   The present invention has been made to solve such a problem, and when a moving object is detected, an object identification device capable of accurately identifying whether or not the moving object is a human being, and The object is to obtain an object identification method.

本発明の第1の態様に係る対象識別装置は、移動物体が検出された場合に、当該移動物体に対して、波長が異なる複数の赤外光を順に照射する赤外光照射手段と、前記赤外光照射手段から照射された各赤外光に対する前記移動物体からの反射光を受光することにより、各赤外光に対応する前記移動物体の画像を取得する取得手段と、前記取得手段が取得した画像に基づいて、前記移動物体に関する前記複数の赤外光のスペクトルを検出し、その検出の結果に基づいて当該移動物体の材質を分析する分析手段と、前記分析手段による分析の結果に基づいて、前記移動物体の種別を識別する識別手段と、を備えることを特徴とするものである。   The object identification device according to the first aspect of the present invention includes an infrared light irradiation unit that sequentially irradiates a plurality of infrared lights having different wavelengths to the moving object when the moving object is detected; An acquisition unit for acquiring an image of the moving object corresponding to each infrared light by receiving reflected light from the moving object with respect to each infrared light irradiated from the infrared light irradiation unit; and Based on the acquired image, the plurality of infrared light spectra relating to the moving object are detected, and based on the result of the detection, analyzing means for analyzing the material of the moving object, and the analysis result by the analyzing means Identification means for identifying the type of the moving object based on the above.

第1の態様に係る対象識別装置によれば、識別手段は、分析手段による材質分析の結果に基づいて、移動物体の種別を識別する。従って、材質分析の結果、人肌や化学繊維等が含まれている場合には、その移動物体は人間であると識別することができる。しかも、赤外光照射手段は、移動物体に対して波長が異なる複数の赤外光を順に照射し、取得手段は、各赤外光に対応する移動物体の画像を取得し、分析手段は、当該画像に基づいて移動物体に関する複数の赤外光のスペクトルを検出した結果に基づいて、移動物体の材質を分析する。このように、波長が異なる複数の赤外光を順に照射することにより、移動物体に関する複数の赤外光のスペクトルを正確に検出できるため、移動物体の材質を正確に分析できる。その結果、夜間においても、移動物体が人間であるかそれ以外の動物等であるかを識別することが可能となる。   According to the object identification device according to the first aspect, the identification unit identifies the type of the moving object based on the result of the material analysis by the analysis unit. Therefore, when human skin, chemical fiber, or the like is included as a result of material analysis, the moving object can be identified as a human. Moreover, the infrared light irradiation means sequentially irradiates the moving object with a plurality of infrared lights having different wavelengths, the acquisition means acquires an image of the moving object corresponding to each infrared light, and the analysis means includes The material of the moving object is analyzed based on the result of detecting a plurality of infrared light spectra related to the moving object based on the image. In this way, by sequentially irradiating a plurality of infrared lights having different wavelengths, the spectrum of the plurality of infrared lights related to the moving object can be accurately detected, so that the material of the moving object can be analyzed accurately. As a result, even at night, it is possible to identify whether the moving object is a human being or an animal other than that.

本発明の第2の態様に係る対象識別装置は、第1の態様に係る対象識別装置において特に、前記取得手段は、比較的広画角の第1のカメラと、前記第1のカメラが撮影した画像に前記移動物体が含まれている場合に、当該移動物体の位置を特定する特定手段と、前記特定手段が特定した位置を撮影することによって、前記移動物体の拡大画像を得る比較的狭画角の第2のカメラと、を有し、前記分析手段は、前記拡大画像に基づいて前記移動物体の材質を分析することを特徴とするものである。   The object identification device according to the second aspect of the present invention is the object identification device according to the first aspect, in particular, the acquisition unit is configured to capture the first camera having a relatively wide angle of view and the first camera. When the moving object is included in the captured image, a specifying unit for specifying the position of the moving object and a relatively narrow image obtained by capturing the position specified by the specifying unit are obtained. A second camera having an angle of view, wherein the analysis unit analyzes a material of the moving object based on the enlarged image.

第2の態様に係る対象識別装置によれば、取得手段は、比較的広画角の第1のカメラによって広範囲のエリアを撮影し、その撮影画像に移動物体が含まれている場合に、比較的狭画角の第2のカメラによって移動物体を撮影することにより、移動物体の拡大画像を得る。従って、第1のカメラによって全体を広く撮影しつつ、第2のカメラによって移動物体の詳細な撮影を行うことが可能となる。しかも、特定手段は、第1のカメラの撮影画像に移動物体が含まれている場合に、移動物体の位置を特定し、第2のカメラは、特定手段から指定された位置を撮影する。従って、狭画角の第2のカメラによって移動物体を探索する必要がないため、第2のカメラによる移動物体の撮影動作を遅滞なく開始することができる。また、分析手段は、第2のカメラによって撮影された拡大画像に基づいて移動物体の材質分析を行う。従って、移動物体とは無関係の背景領域の影響を排除して、移動物体の材質分析を高精度に行うことができる。その結果、エリア内に含まれている移動物体が人間であるかそれ以外の動物等であるかを正確に識別することが可能となる。   According to the object identification device according to the second aspect, the acquisition unit compares the image when a wide area is imaged by the first camera having a relatively wide angle of view and a moving object is included in the captured image. An enlarged image of the moving object is obtained by photographing the moving object with a second camera having a narrow angle of view. Accordingly, it is possible to perform detailed imaging of a moving object with the second camera while imaging the entire image with the first camera. In addition, when the moving image is included in the captured image of the first camera, the specifying unit specifies the position of the moving object, and the second camera images the position specified by the specifying unit. Accordingly, since it is not necessary to search for a moving object with the second camera having a narrow angle of view, the moving object photographing operation by the second camera can be started without delay. Further, the analysis means performs material analysis of the moving object based on the enlarged image taken by the second camera. Therefore, the influence of the background area unrelated to the moving object can be eliminated, and the material analysis of the moving object can be performed with high accuracy. As a result, it is possible to accurately identify whether the moving object included in the area is a human or an animal other than that.

本発明の第3の態様に係る対象識別装置は、第2の態様に係る対象識別装置において特に、前記赤外光照射手段は前記第2のカメラに取り付けられていることを特徴とするものである。   The object identification device according to the third aspect of the present invention is characterized in that, in the object identification device according to the second aspect, in particular, the infrared light irradiation means is attached to the second camera. is there.

第3の態様に係る対象識別装置によれば、赤外光照射手段は第2のカメラに取り付けられている。従って、移動物体を追跡して撮影するための第2のカメラの駆動部と、移動物体を追跡して赤外光を照射するための赤外光照射手段の駆動部とを、別個に設ける必要がないため、装置構成の簡略化及び製造コストの低減を図ることができる。また、赤外光照射手段は、エリアの全体に対して赤外光を照射するわけではなく、第2のカメラの撮影範囲に対応した狭い照射範囲に対して赤外光を照射すれば足りる。従って、エリアの全体に対して赤外光を照射する場合と比較すると、消費電力を低減できるとともに、狭い照射範囲にパワーを集中させることで赤外光の照射強度を増大できるため、スペクトルの検出精度を向上することが可能となる。   According to the object identification device according to the third aspect, the infrared light irradiation means is attached to the second camera. Therefore, it is necessary to separately provide a second camera driving unit for tracking and photographing a moving object and an infrared light irradiation means driving unit for tracking the moving object and irradiating infrared light. Therefore, the device configuration can be simplified and the manufacturing cost can be reduced. Further, the infrared light irradiating means does not irradiate the entire area with infrared light, but it is sufficient to irradiate infrared light with respect to a narrow irradiation range corresponding to the photographing range of the second camera. Therefore, compared to the case of irradiating infrared light to the entire area, the power consumption can be reduced and the intensity of infrared light irradiation can be increased by concentrating the power in a narrow irradiation range. The accuracy can be improved.

本発明の第4の態様に係る対象識別装置は、第1〜第3のいずれか一つの態様に係る対象識別装置において特に、可視光を照射する可視光照射手段をさらに備えることを特徴とするものである。   The object identification device according to the fourth aspect of the present invention is characterized in that, in the object identification device according to any one of the first to third aspects, further includes visible light irradiation means for irradiating visible light. Is.

第4の態様に係る対象識別装置によれば、可視光照射手段は、エリアの全体に対して可視光を照射する。従って、エリア内に含まれている移動物体が人間であると識別された場合に、可視光に基づく当該移動物体のカラー画像を撮影して記録することが可能となる。   According to the object identification device according to the fourth aspect, the visible light irradiation means irradiates the entire area with visible light. Therefore, when the moving object included in the area is identified as a human, a color image of the moving object based on visible light can be taken and recorded.

本発明の第5の態様に係る対象識別装置は、第4の態様に係る対象識別装置において特に、前記第2のカメラは、可視光を受光する第1の受光素子部と、前記可視光照射手段から照射された可視光に対する前記移動物体からの反射光を、前記第1の受光素子部上に導光する光学系と、を含み、前記分析手段は、赤外光を受光する第2の受光素子部と、前記光学系と前記第1の受光素子部との間に配置され、前記光学系から前記第1の受光素子部に向かう、前記赤外光照射手段から照射された各赤外光に対する前記移動物体からの反射光を、前記第2の受光素子部に向けて分岐させる分岐手段と、を含むことを特徴とするものである。   The object identification device according to the fifth aspect of the present invention is the object identification device according to the fourth aspect, in particular, the second camera includes a first light receiving element unit that receives visible light, and the visible light irradiation. An optical system for guiding the reflected light from the moving object with respect to visible light emitted from the means onto the first light receiving element portion, and the analyzing means receives a second light that receives infrared light. Each infrared ray that is disposed between the light receiving element unit and between the optical system and the first light receiving element unit and that is irradiated from the infrared light irradiating unit toward the first light receiving element unit from the optical system. And branching means for branching reflected light from the moving object toward the light toward the second light receiving element portion.

第5の態様に係る対象識別装置によれば、光学系と第1の受光素子部との間に分岐手段を配置し、光学系から第1の受光素子部に向かう反射光を、分岐手段によって第2の光学系に向けて分岐させる。これにより、光学系によって第1の受光素子部上に導光される反射光と共通の反射光を、第2の受光素子部上に導光することができる。その結果、分析手段は、第2のカメラによって得られる拡大画像に基づく材質分析を正確に行うことが可能となる。しかも、材質分析を行うための専用カメラを第2のカメラとは別に設ける必要がないため、装置を小型化できるとともに、共通の拡大画像を得るべく専用カメラの動作と第2のカメラの動作とを同期させる制御も不要となる。   According to the object identification device according to the fifth aspect, the branching unit is arranged between the optical system and the first light receiving element unit, and the reflected light from the optical system toward the first light receiving element unit is caused by the branching unit. Branches toward the second optical system. Thereby, the reflected light that is common to the reflected light guided onto the first light receiving element portion by the optical system can be guided onto the second light receiving element portion. As a result, the analysis means can accurately perform material analysis based on the enlarged image obtained by the second camera. In addition, since it is not necessary to provide a dedicated camera for performing material analysis separately from the second camera, the apparatus can be reduced in size, and the operation of the dedicated camera and the operation of the second camera to obtain a common enlarged image. The control which synchronizes is also unnecessary.

本発明の第6の態様に係る対象識別装置は、第2又は第3の態様に係る対象識別装置において特に、前記分析手段は、前記拡大画像の全体領域、前記拡大画像を分割した複数の小領域、及び前記拡大画像内に含まれる円形又は楕円形の領域の少なくとも一つを対象として、前記移動物体の材質を分析することを特徴とするものである。   In the object identification device according to the sixth aspect of the present invention, particularly in the object identification device according to the second or third aspect, the analysis means includes a whole area of the enlarged image, and a plurality of small images obtained by dividing the enlarged image. The material of the moving object is analyzed for at least one of a region and a circular or elliptical region included in the enlarged image.

第6の態様に係る対象識別装置によれば、分析手段は、拡大画像の全体領域、拡大画像を分割した複数の小領域、及び拡大画像内に含まれる円形又は楕円形の領域の少なくとも一つを対象として材質分析を行う。拡大画像の全体領域を分析対象とすることにより、材質分析を簡易に行うことができる。拡大画像を分割した複数の小領域を分析対象とすることにより、全体領域を分析対象とする場合と比較して高精度な分析を行うことができる。拡大画像内に含まれる円形又は楕円形の領域を分析対象とすることにより、拡大画像内に顔が含まれている場合に、その顔を対象とした材質分析を行うことができるため、移動物体が人間であるかそれ以外の動物等であるかを高精度に識別することが可能となる。   According to the object identification device according to the sixth aspect, the analysis means includes at least one of the entire area of the enlarged image, a plurality of small areas obtained by dividing the enlarged image, and a circular or elliptical area included in the enlarged image. Material analysis is performed on the target. By using the entire area of the enlarged image as an analysis target, material analysis can be easily performed. By using a plurality of small regions obtained by dividing the enlarged image as an analysis target, it is possible to perform a highly accurate analysis as compared with a case where the entire region is an analysis target. By using a circular or elliptical area included in the enlarged image as the analysis target, when a face is included in the enlarged image, material analysis can be performed for that face, so moving objects It is possible to identify with high accuracy whether the person is a human or other animal.

本発明の第7の態様に係る対象識別方法は、(A)移動物体が検出された場合に、当該移動物体に対して、波長が異なる複数の赤外光を順に照射するステップと、(B)前記ステップ(A)によって照射された各赤外光に対する前記移動物体からの反射光を受光することにより、各赤外光に対応する前記移動物体の画像を取得するステップと、(C)前記ステップ(B)によって取得した画像に基づいて、前記移動物体に関する前記複数の赤外光のスペクトルを検出し、その検出の結果に基づいて当該移動物体の材質を分析するステップと、(D)前記ステップ(C)による分析の結果に基づいて、前記移動物体の種別を識別するステップと、を備えることを特徴とするものである。   In the object identification method according to the seventh aspect of the present invention, when a moving object is detected, (A) a step of sequentially irradiating the moving object with a plurality of infrared lights having different wavelengths; ) Receiving an image of the moving object corresponding to each infrared light by receiving reflected light from the moving object with respect to each infrared light irradiated in the step (A); Detecting a spectrum of the plurality of infrared lights related to the moving object based on the image acquired in step (B), and analyzing a material of the moving object based on a result of the detection; And a step of identifying the type of the moving object based on the result of the analysis in step (C).

第7の態様に係る対象識別方法によれば、ステップ(D)では、ステップ(C)による材質分析の結果に基づいて、移動物体の種別が識別される。従って、材質分析の結果、人肌や化学繊維等が含まれている場合には、その移動物体は人間であると識別することができる。しかも、ステップ(A)では、移動物体に対して波長が異なる複数の赤外光が順に照射され、ステップ(B)では、各赤外光に対応する移動物体の画像が取得され、ステップ(C)では、当該画像に基づいて移動物体に関する複数の赤外光のスペクトルを検出した結果に基づいて、移動物体の材質が分析される。このように、波長が異なる複数の赤外光を順に照射することにより、移動物体に関する複数の赤外光のスペクトルを正確に検出できるため、移動物体の材質を正確に分析できる。その結果、夜間においても、所定エリア内に含まれている移動物体が人間であるかそれ以外の動物等であるかを識別することが可能となる。   According to the object identification method according to the seventh aspect, in step (D), the type of the moving object is identified based on the result of the material analysis in step (C). Therefore, when human skin, chemical fiber, or the like is included as a result of material analysis, the moving object can be identified as a human. Moreover, in step (A), a plurality of infrared lights having different wavelengths are sequentially irradiated to the moving object, and in step (B), an image of the moving object corresponding to each infrared light is acquired. ), The material of the moving object is analyzed based on the result of detecting a plurality of infrared light spectra related to the moving object based on the image. In this way, by sequentially irradiating a plurality of infrared lights having different wavelengths, the spectrum of the plurality of infrared lights related to the moving object can be accurately detected, so that the material of the moving object can be analyzed accurately. As a result, even at night, it is possible to identify whether the moving object included in the predetermined area is a human being or an animal other than that.

本発明によれば、移動物体が検出された場合に、その移動物体が人間であるか否かを正確に識別することが可能な、対象識別装置及び対象識別方法を得ることができる。   ADVANTAGE OF THE INVENTION According to this invention, when a moving object is detected, the object identification apparatus and the object identification method which can identify correctly whether the moving object is a human can be obtained.

本発明の実施の形態に係る対象識別装置としての監視装置の使用状況の一例を示す図である。It is a figure which shows an example of the usage condition of the monitoring apparatus as an object identification apparatus which concerns on embodiment of this invention. 監視装置の外観を模式的に示す図である。It is a figure which shows typically the external appearance of a monitoring apparatus. 監視装置の機能を概略的に示すブロック図である。It is a block diagram which shows the function of a monitoring apparatus roughly. 取得部の構成を概略的に示すブロック図である。It is a block diagram which shows the structure of an acquisition part roughly. 監視装置の全体動作を概略的に示すフローチャートである。It is a flowchart which shows the whole operation | movement of a monitoring apparatus roughly. 監視装置によって撮影された撮影画像の一例を模式的に示す図である。It is a figure which shows typically an example of the picked-up image image | photographed with the monitoring apparatus. 望遠カメラの内部構造を概略的に示す図である。It is a figure which shows schematically the internal structure of a telephoto camera. 演算部等の具体的な構成を示すブロック図である。It is a block diagram which shows specific structures, such as a calculating part. 識別部による対象物の識別処理を示すフローチャートである。It is a flowchart which shows the identification process of the target object by an identification part. 識別部による対象物の識別処理を示すフローチャートである。It is a flowchart which shows the identification process of the target object by an identification part. 解析対象範囲の他の設定例を示す図である。It is a figure which shows the other example of a setting of an analysis object range.

以下、本発明の実施の形態について、図面を用いて詳細に説明する。なお、異なる図面において同一の符号を付した要素は、同一又は相応する要素を示すものとする。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In addition, the element which attached | subjected the same code | symbol in different drawing shall show the same or corresponding element.

図1は、本発明の実施の形態に係る対象識別装置としての監視装置3の使用状況の一例を示す図である。通信基地局1が山中に設置されており、通信基地局1の周囲はフェンス2で取り囲まれている。この例において、監視装置3は、所定の撮影エリアとして、フェンス2を含む監視エリア4を撮影することにより、フェンス2を乗り越えて通信基地局1へ侵入しようとする侵入者を監視する用途で使用される。なお、図1の例では通信基地局1に一つの監視装置3のみが設置されているが、通信基地局1の周囲を死角無く監視するために、複数の監視装置3が設置されてもよい。   FIG. 1 is a diagram illustrating an example of a usage state of a monitoring device 3 as a target identification device according to an embodiment of the present invention. A communication base station 1 is installed in the mountains, and the communication base station 1 is surrounded by a fence 2. In this example, the monitoring device 3 is used for the purpose of monitoring an intruder trying to get over the fence 2 and enter the communication base station 1 by shooting the monitoring area 4 including the fence 2 as a predetermined shooting area. Is done. In the example of FIG. 1, only one monitoring device 3 is installed in the communication base station 1, but a plurality of monitoring devices 3 may be installed in order to monitor the surroundings of the communication base station 1 without blind spots. .

図2は、監視装置3の外観を模式的に示す図である。ステレオカメラとして機能する一対の広角カメラ11A,11Bと、望遠カメラ12と、制御装置13と、可視光照射器14とが、フレーム10に取り付けられている。また、望遠カメラ12の所定箇所(例えば、望遠カメラ12のレンズの周囲を取り囲む位置)には、赤外光照射器15が取り付けられている。   FIG. 2 is a diagram schematically illustrating the appearance of the monitoring device 3. A pair of wide-angle cameras 11A and 11B functioning as a stereo camera, a telephoto camera 12, a control device 13, and a visible light irradiator 14 are attached to the frame 10. An infrared light irradiator 15 is attached to a predetermined location of the telephoto camera 12 (for example, a position surrounding the lens of the telephoto camera 12).

広角カメラ11A,11Bは、監視エリア4の全体を撮影可能なように、視野が固定されている。可視光照射器14は、可視光の波長帯の照射光を照射する複数のLEDを備えて構成されており、監視エリア4の全体に対して可視光を照射可能なように、照射範囲が固定されている。望遠カメラ12は、例えば、パンチルト機能及びズーム機能を搭載したPTZカメラである。赤外光照射器15は、異なる波長帯(以下の例では、1100nm帯、1200nm帯、1300nm帯、1500nm帯、及び1600nm帯とする)の複数の赤外光を照射する複数のLEDを備えて構成されており、望遠カメラ12の撮影範囲に対応して各赤外光を照射可能なように、その照射範囲は比較的狭い範囲に設定されている。   The wide-angle cameras 11A and 11B have a fixed field of view so that the entire monitoring area 4 can be photographed. The visible light irradiator 14 includes a plurality of LEDs that emit irradiation light in the visible light wavelength band, and the irradiation range is fixed so that visible light can be irradiated to the entire monitoring area 4. Has been. The telephoto camera 12 is, for example, a PTZ camera equipped with a pan / tilt function and a zoom function. The infrared light irradiator 15 includes a plurality of LEDs that irradiate a plurality of infrared lights in different wavelength bands (in the following example, 1100 nm band, 1200 nm band, 1300 nm band, 1500 nm band, and 1600 nm band). The irradiation range is set to a relatively narrow range so that each infrared light can be irradiated corresponding to the photographing range of the telephoto camera 12.

本実施の形態において、監視装置3は、夜間における通信基地局1への侵入者を監視する用途で使用され、広角カメラ11A,11B及び望遠カメラ12は、可視光照射器14から照射された可視光に対する対象物からの反射光を受光することによって、対象物を撮影する。また、望遠カメラ12は、赤外光照射器15から照射された赤外光に対する対象物からの反射光を受光することによって、対象物を撮影する。可視光照射器14は、監視が必要な時間帯において、常時可視光を照射している。但し、超音波を用いた動体センサ等によって監視エリア4内に何等かの移動物体が検出された場合にのみ、可視光を照射する構成としてもよい。赤外光照射器15は、広角カメラ11A,11Bの撮影画像に基づいて監視エリア4内に何等かの移動物体が検出された場合に、上記1100nm帯、1200nm帯、1300nm帯、1500nm帯、及び1600nm帯の各波長帯の赤外光を、その移動物体に対して順に照射し、その照射を繰り返す。   In the present embodiment, the monitoring device 3 is used for monitoring an intruder to the communication base station 1 at night, and the wide-angle cameras 11A and 11B and the telephoto camera 12 are visible from the visible light irradiator 14. The object is photographed by receiving light reflected from the object. In addition, the telephoto camera 12 captures an object by receiving reflected light from the object with respect to the infrared light irradiated from the infrared light irradiator 15. The visible light irradiator 14 always emits visible light in a time zone that requires monitoring. However, it may be configured to irradiate visible light only when any moving object is detected in the monitoring area 4 by a moving body sensor or the like using ultrasonic waves. When any moving object is detected in the monitoring area 4 based on the captured images of the wide-angle cameras 11A and 11B, the infrared light irradiator 15 has the above 1100 nm band, 1200 nm band, 1300 nm band, 1500 nm band, and Infrared light of each wavelength band in the 1600 nm band is sequentially irradiated to the moving object, and the irradiation is repeated.

なお、夜間のみならず日中における監視も可能であり、この場合には、広角カメラ11A,11B及び望遠カメラ12は、太陽光に含まれる可視光成分に対する対象物からの反射光を受光することによって、対象物を撮影する。また、日中における監視を行う場合には、太陽光に含まれる赤外光成分と十分に区別可能な高レベルの照射光強度を確保すべく、LEDを用いた赤外光照射器15に代えてレーザ光照射器を配置するのが望ましい。レーザ光照射器は、上記1100nm帯、1200nm帯、1300nm帯、1500nm帯、及び1600nm帯の各波長帯のレーザ光を照射し、望遠カメラ12は、レーザ光照射器から照射されたレーザ光に対する対象物からの反射光を受光することによって、対象物を撮影する。   It is possible to monitor not only at night but also during the day. In this case, the wide-angle cameras 11A and 11B and the telephoto camera 12 receive the reflected light from the object with respect to the visible light component contained in sunlight. To photograph the object. Moreover, when monitoring in the daytime, it replaces with the infrared light irradiation device 15 using LED in order to ensure the high level irradiation light intensity which can fully be distinguished from the infrared-light component contained in sunlight. It is desirable to arrange a laser beam irradiator. The laser beam irradiator irradiates laser light of each wavelength band of the 1100 nm band, 1200 nm band, 1300 nm band, 1500 nm band, and 1600 nm band, and the telephoto camera 12 is a target for the laser light irradiated from the laser light irradiator. An object is photographed by receiving reflected light from the object.

図3は、監視装置3の機能を概略的に示すブロック図である。監視装置3は、取得部21、分析部22、及び識別部23を備えている。取得部21は、監視エリア4を撮影した撮影画像内に移動物体が含まれている場合に、可視領域及び赤外領域を含むその移動物体の拡大画像を取得する。分析部22は、取得部21が取得した拡大画像に基づいて、赤外領域の特定の複数の波長のスペクトルを検出し、当該検出の結果に基づいて移動物体の材質を分析する。識別部23は、分析部22による分析の結果に基づいて、移動物体の種別を識別する。   FIG. 3 is a block diagram schematically showing functions of the monitoring device 3. The monitoring device 3 includes an acquisition unit 21, an analysis unit 22, and an identification unit 23. When the captured image obtained by capturing the monitoring area 4 includes a moving object, the acquiring unit 21 acquires an enlarged image of the moving object including the visible region and the infrared region. The analysis unit 22 detects a spectrum of specific wavelengths in the infrared region based on the enlarged image acquired by the acquisition unit 21, and analyzes the material of the moving object based on the detection result. The identification unit 23 identifies the type of the moving object based on the analysis result by the analysis unit 22.

図4は、取得部21の構成を概略的に示すブロック図である。取得部21は、広角カメラ11A,11B、望遠カメラ12、及び位置特定部31を備えている。また、図5は、監視装置3の全体動作を概略的に示すフローチャートである。また、図6は、監視装置3によって撮影された撮影画像の一例を模式的に示す図である。図6(A)には、広角カメラ11A,11Bの撮影画像200を示しており、図6(B)には、望遠カメラ12によって撮影された拡大画像300を示している。   FIG. 4 is a block diagram schematically showing the configuration of the acquisition unit 21. The acquisition unit 21 includes wide-angle cameras 11A and 11B, a telephoto camera 12, and a position specifying unit 31. FIG. 5 is a flowchart schematically showing the overall operation of the monitoring device 3. FIG. 6 is a diagram schematically illustrating an example of a captured image captured by the monitoring device 3. 6A shows captured images 200 of the wide-angle cameras 11A and 11B, and FIG. 6B shows an enlarged image 300 captured by the telephoto camera 12.

図4〜6を参照して、広角カメラ11A,11Bは、監視エリア4の全体を常時撮影しており、これにより、撮影画像200が得られる(ステップP11)。広角カメラ11A,11Bの撮影画像200に基づいて監視エリア4内に何等かの移動物体が検出されると(ステップP12の判定結果が「YES」)、位置特定部31は、広角カメラ11A,11B間の距離、及び、広角カメラ11A,11Bの各撮影画像200内における移動物体の位置関係(視差)に基づいて、監視エリア4内における移動物体の位置(例えば中心位置201)を特定する(ステップP13)。なお、本実施の形態では、フェンス2を乗り越えて通信基地局1へ侵入しようとする侵入者を監視する用途での監視装置3の使用を想定しており、フェンス2を乗り越える際の高さ方向の移動量をも考慮する必要がある。二つの広角カメラ11A,11Bを用いてステレオカメラを構成しているため、高さ方向を含め侵入者の位置、侵入者までの距離を特定できる。しかし、必ずしもステレオカメラを用いる必要はなく、一つの広角カメラのみを用いてもよい。   4 to 6, the wide-angle cameras 11A and 11B always shoot the entire monitoring area 4, and a captured image 200 is thereby obtained (step P11). If any moving object is detected in the monitoring area 4 based on the captured images 200 of the wide-angle cameras 11A and 11B (the determination result in step P12 is “YES”), the position specifying unit 31 may select the wide-angle cameras 11A and 11B. The position of the moving object in the monitoring area 4 (for example, the center position 201) is specified based on the distance between them and the positional relationship (parallax) of the moving object in each captured image 200 of the wide-angle cameras 11A and 11B (step 201). P13). In this embodiment, it is assumed that the monitoring device 3 is used for monitoring an intruder who tries to enter the communication base station 1 over the fence 2, and the height direction when the fence 2 is exceeded It is also necessary to consider the amount of movement. Since the stereo camera is configured by using the two wide-angle cameras 11A and 11B, the position of the intruder including the height direction and the distance to the intruder can be specified. However, it is not always necessary to use a stereo camera, and only one wide-angle camera may be used.

次に、位置特定部31によって特定された移動物体の位置を視野の中心として望遠カメラ12による撮影を行うことにより、可視領域及び赤外領域を含む移動物体の拡大画像300が取得部21によって取得される(ステップP14)。次に、分析部22は、取得部21が取得した拡大画像300に対して、ハイパースペクトル解析技術を用いて移動物体の材質分析を行う(ステップP15)。次に、識別部23は、分析部22による分析の結果に基づいて、移動物体が人間であるか否かを判定する(ステップP16)。   Next, the acquisition unit 21 acquires an enlarged image 300 of the moving object including the visible region and the infrared region by performing imaging with the telephoto camera 12 with the position of the moving object specified by the position specifying unit 31 as the center of the visual field. (Step P14). Next, the analysis unit 22 performs material analysis of the moving object using the hyperspectral analysis technique on the enlarged image 300 acquired by the acquisition unit 21 (step P15). Next, the identification unit 23 determines whether or not the moving object is a human based on the result of the analysis by the analysis unit 22 (step P16).

移動物体が人間でない場合には(ステップP16の判定結果が「NO」)、ステップP11に戻って上記と同様の動作が繰り返される。一方、移動物体が人間(つまり侵入者)である場合には(ステップP16の判定結果が「YES」)、音又は光等によって侵入者に対して警告を行うとともに、望遠カメラ12によって侵入者を追跡して撮影し、その撮影画像を記録する(ステップP17)。侵入者の追跡のための望遠カメラ12の駆動制御は、図2に示した制御部13によって行われる。但し、追跡のための所定の制御プログラムを格納したFPGA(Field Programmable Gate Array)及びDSP(Digital Signal Processor)を望遠カメラ12内に実装することにより、望遠カメラ12自らの制御によって侵入者の追跡を行ってもよい。侵入者の追跡の結果、侵入者が監視エリア4から去った場合には(ステップP18の判定結果が「YES」)、ステップP11に戻って上記と同様の動作が繰り返される。   If the moving object is not a human (the determination result in Step P16 is “NO”), the process returns to Step P11 and the same operation as described above is repeated. On the other hand, when the moving object is a human (that is, an intruder) (the determination result in Step P16 is “YES”), the intruder is warned by sound or light, and the telephoto camera 12 detects the intruder. The captured image is tracked and the captured image is recorded (step P17). Drive control of the telephoto camera 12 for tracking an intruder is performed by the control unit 13 shown in FIG. However, by mounting an FPGA (Field Programmable Gate Array) and DSP (Digital Signal Processor) storing a predetermined control program for tracking in the telephoto camera 12, tracking of the intruder can be performed by controlling the telephoto camera 12 itself. You may go. If the intruder leaves the monitoring area 4 as a result of tracking the intruder (the determination result in step P18 is “YES”), the process returns to step P11 and the same operation as described above is repeated.

図7は、望遠カメラ12の内部構造を概略的に示す図である。望遠カメラ12は、ズームレンズを含む光学系41と、CCD等の受光素子部42とを備えている。移動物体からの反射光(可視光及び赤外光を含む)は、光学系41によって受光素子部42上に導光される。受光素子部42を構成する各受光素子は、可視光の波長帯における反射光の受光強度に応じた大きさの電気信号を出力する。望遠カメラ12によって撮影された拡大画像300は、通信基地局1内又は遠隔地の監視センタ内に設置された液晶ディスプレイ等の表示部43に表示される。   FIG. 7 is a diagram schematically showing the internal structure of the telephoto camera 12. The telephoto camera 12 includes an optical system 41 including a zoom lens and a light receiving element unit 42 such as a CCD. Reflected light (including visible light and infrared light) from the moving object is guided onto the light receiving element unit 42 by the optical system 41. Each light receiving element constituting the light receiving element unit 42 outputs an electrical signal having a magnitude corresponding to the received light intensity of the reflected light in the visible light wavelength band. The enlarged image 300 taken by the telephoto camera 12 is displayed on a display unit 43 such as a liquid crystal display installed in the communication base station 1 or a remote monitoring center.

また、図7に示すように、分析部22は、分岐部51、受光素子部53、及び演算部54を備えている。分岐部51は、プリズム又はハーフミラー等であり、光学系41と受光素子部42との間に配置されている。光学系41から受光素子部42に向かう反射光は、分岐部51によって受光素子部53に向けて分岐され、受光素子部53上に導光される。受光素子部53を構成する各受光素子は、赤外光の波長帯(上記1100nm帯、1200nm帯、1300nm帯、1500nm帯、及び1600nm帯の全ての波長帯を含む)における反射光の受光強度に応じた大きさの電気信号を出力する。これにより、上記1100nm帯、1200nm帯、1300nm帯、1500nm帯、及び1600nm帯の各波長帯に対応する赤外画像がそれぞれ得られる。受光素子部53から出力された電気信号は、演算部54に入力される。演算部54から出力された信号は、識別部23に入力される。   Further, as shown in FIG. 7, the analysis unit 22 includes a branching unit 51, a light receiving element unit 53, and a calculation unit 54. The branching unit 51 is a prism or a half mirror, and is disposed between the optical system 41 and the light receiving element unit 42. The reflected light traveling from the optical system 41 toward the light receiving element portion 42 is branched toward the light receiving element portion 53 by the branching portion 51 and guided onto the light receiving element portion 53. Each of the light receiving elements constituting the light receiving element unit 53 has a light receiving intensity of reflected light in an infrared light wavelength band (including all of the above 1100 nm band, 1200 nm band, 1300 nm band, 1500 nm band, and 1600 nm band). An electric signal having a corresponding magnitude is output. Thereby, infrared images corresponding to the respective wavelength bands of the 1100 nm band, 1200 nm band, 1300 nm band, 1500 nm band, and 1600 nm band are obtained. The electrical signal output from the light receiving element unit 53 is input to the calculation unit 54. The signal output from the calculation unit 54 is input to the identification unit 23.

なお、プリズム又はハーフミラー等を用いる代わりに、挿退可能な反射鏡を光学系41と受光素子部42との間に配置してもよい。第1のタイミングにおいて、光学系41と受光素子部42との間の光路上から上記反射鏡を退避させる。これにより、移動物体からの反射光が受光素子部42上に導光される。また、第2のタイミングにおいて、光学系41と受光素子部42との間の光路上に上記反射鏡を挿入する。光学系41から受光素子部42に向かう反射光は、反射鏡によって受光素子部53に向けて反射される。これにより、移動物体からの反射光が受光素子部53上に導光される。上記第1及び第2のタイミングは、所定の微小時間間隔で交互に繰り返される。   Instead of using a prism or a half mirror, an insertable / retractable reflecting mirror may be disposed between the optical system 41 and the light receiving element portion 42. At the first timing, the reflecting mirror is retracted from the optical path between the optical system 41 and the light receiving element unit 42. Thereby, the reflected light from the moving object is guided onto the light receiving element portion 42. Further, at the second timing, the reflecting mirror is inserted on the optical path between the optical system 41 and the light receiving element portion 42. The reflected light from the optical system 41 toward the light receiving element portion 42 is reflected toward the light receiving element portion 53 by the reflecting mirror. Thereby, the reflected light from the moving object is guided onto the light receiving element portion 53. The first and second timings are alternately repeated at predetermined minute time intervals.

図8は、図7に示した演算部54等の具体的な構成を示すブロック図である。演算部54は、反射率算出部91、正規化指標算出部92、及び二次微分値算出部93を備えている。また、赤外光照射器15は、1100nm帯の赤外光を照射する一又は複数のLED71と、1200nm帯の赤外光を照射する一又は複数のLED72と、1300nm帯の赤外光を照射する一又は複数のLED73と、1500nm帯の赤外光を照射する一又は複数のLED74と、1600nm帯の赤外光を照射する一又は複数のLED75とを有している。照射制御部81及び同期制御部82は、例えば、図1に示した制御装置13内に設けられている。照射制御部81は、各LED71〜75の発光を制御する。同期制御部82は、照射制御部81と反射率算出部91との同期動作を制御する。   FIG. 8 is a block diagram showing a specific configuration of the arithmetic unit 54 and the like shown in FIG. The calculation unit 54 includes a reflectance calculation unit 91, a normalization index calculation unit 92, and a secondary differential value calculation unit 93. The infrared light irradiator 15 irradiates one or more LEDs 71 that irradiate infrared light in the 1100 nm band, one or more LEDs 72 that irradiate infrared light in the 1200 nm band, and infrared light in the 1300 nm band. One or a plurality of LEDs 73, one or a plurality of LEDs 74 for irradiating 1500 nm band infrared light, and one or a plurality of LEDs 75 for irradiating 1600 nm band infrared light. The irradiation control unit 81 and the synchronization control unit 82 are provided, for example, in the control device 13 illustrated in FIG. The irradiation controller 81 controls the light emission of the LEDs 71 to 75. The synchronization control unit 82 controls the synchronization operation between the irradiation control unit 81 and the reflectance calculation unit 91.

上記の通り、受光素子部53を構成する各受光素子は、反射光の受光強度に応じた大きさの電気信号を出力する。当該電気信号は、各受光素子から反射率算出部91に入力される。このとき、同期制御部82は、各LED71〜75の発光タイミングを照射制御部81によって制御させる。例えば、LED71→LED72→LED73→LED74→LED75の順の発光サイクルを1秒間に20回繰り返すように、照射制御部81に制御命令を入力する。また、同期制御部82は、各LED71〜75の発光タイミングを示すデータを受光素子部53及び反射率算出部91に入力することにより、受光素子部53を構成する各受光素子の露光時間(電荷蓄積時間)を発光タイミングに同期させるととともに、受光素子部53から反射率算出部91に順次入力される電気信号が、それぞれどのLED71〜75から照射された赤外光に基づく電気信号であるかを反射率算出部91に教示する。   As described above, each light receiving element constituting the light receiving element unit 53 outputs an electrical signal having a magnitude corresponding to the received light intensity of the reflected light. The electrical signal is input to the reflectance calculation unit 91 from each light receiving element. At this time, the synchronization control unit 82 causes the irradiation control unit 81 to control the light emission timings of the LEDs 71 to 75. For example, a control command is input to the irradiation control unit 81 so that the light emission cycle of LED71 → LED72 → LED73 → LED74 → LED75 is repeated 20 times per second. In addition, the synchronization control unit 82 inputs data indicating the light emission timing of each of the LEDs 71 to 75 to the light receiving element unit 53 and the reflectance calculation unit 91, so that the exposure time (charge) Storage time) is synchronized with the light emission timing, and the electrical signals sequentially input from the light receiving element unit 53 to the reflectance calculation unit 91 are the electrical signals based on the infrared light emitted from which LEDs 71 to 75, respectively. Is taught to the reflectance calculation unit 91.

反射率算出部91は、受光素子部53から入力された電気信号に基づいて、上記1100nm帯、1200nm帯、1300nm帯、1500nm帯、及び1600nm帯の各波長帯に関する反射率R1100,R1200,R1300,R1500,R1600を算出する。   Based on the electrical signal input from the light receiving element unit 53, the reflectance calculation unit 91 reflects the reflectances R1100, R1200, R1300 for the wavelength bands of the 1100 nm band, 1200 nm band, 1300 nm band, 1500 nm band, and 1600 nm band. R1500 and R1600 are calculated.

正規化指標算出部92は、反射率算出部91によって算出された反射率R1100,R1200,R1300,R1500,R1600に基づいて、以下に示す式により定義される正規化指標ND1〜ND4を算出する。
ND1 : (R1500−R1300)/(R1500+R1300)
ND2 : (R1500−R1200)/(R1500+R1200)
ND3 : (R1600−R1300)/(R1600+R1300)
ND4 : (R1300−R1100)/(R1300+R1100)
Based on the reflectances R1100, R1200, R1300, R1500, and R1600 calculated by the reflectance calculation unit 91, the normalization index calculation unit 92 calculates normalization indexes ND1 to ND4 defined by the following expressions.
ND1: (R1500-R1300) / (R1500 + R1300)
ND2: (R1500-R1200) / (R1500 + R1200)
ND3: (R1600-R1300) / (R1600 + R1300)
ND4: (R1300-R1100) / (R1300 + R1100)

また、二次微分値算出部93は、上記反射率と波長との関数の二次微分値を算出する。本実施の形態では、二次微分値算出部93は、反射率算出部91によって算出された反射率R1100,R1200,R1300,R1500,R1600に基づいて、以下に示す式により定義される近似的な二次微分値2ndder1,2ndder2を算出する。
ndder1 :
[{(R1500−R1300)/(R1500+R1300)}/200]
−[{(R1300−R1200)/(R1300+R1200)}/100]
ndder2 :
[{(R1500−R1200)/(R1500+R1200)}/300]
−[{(R1200−R1100)/(R1200+R1100)}/100]
Moreover, the secondary differential value calculation part 93 calculates the secondary differential value of the function of the said reflectance and a wavelength. In the present embodiment, the second-order differential value calculation unit 93 is based on the reflectances R1100, R1200, R1300, R1500, and R1600 calculated by the reflectance calculation unit 91, and is an approximation defined by the following equation. Second derivative values 2 nd der1 and nd der2 are calculated.
2 nd der1:
[{(R1500-R1300) / (R1500 + R1300)} / 200]
-[{(R1300-R1200) / (R1300 + R1200)} / 100]
2 nd der2:
[{(R1500-R1200) / (R1500 + R1200)} / 300]
-[{(R1200-R1100) / (R1200 + R1100)} / 100]

反射率R1100,R1200,R1300,R1500,R1600、正規化指標ND1〜ND4、及び二次微分値2ndder1,2ndder2は、演算部54から識別部23に入力される。 The reflectances R1100, R1200, R1300, R1500, R1600, the normalization indices ND1 to ND4, and the second derivative values 2 nd der1 and nd der2 are input from the calculation unit 54 to the identification unit 23.

識別部23は、演算部54から入力されたこれらの情報に基づいて、対象物(つまり監視エリア4内に含まれている移動物体)の種別を識別する。   The identification unit 23 identifies the type of the target (that is, the moving object included in the monitoring area 4) based on the information input from the calculation unit 54.

図9,10は、識別部23による対象物の識別処理を示すフローチャートである。まずステップP21において識別部23は、各反射率R1100,R1200,R1300,R1500,R1600の値が近似的に0であるか否かを判定する。例えば、反射率の値が所定値(例えば0.02)未満である場合にはその反射率は近似的に0であると判定し、反射率の値が当該所定値以上である場合にはその反射率は近似的に0でないと判定する。全ての反射率R1100,R1200,R1300,R1500,R1600の値が近似的に0である場合(つまりステップP21における判定結果が「YES」である場合)には、識別部23は、解析対象範囲内(この例では拡大画像300の全体領域内)に窓ガラスが存在すると判定する。   FIGS. 9 and 10 are flowcharts showing the object identifying process by the identifying unit 23. First, in step P21, the identification unit 23 determines whether or not the values of the reflectances R1100, R1200, R1300, R1500, and R1600 are approximately zero. For example, when the reflectance value is less than a predetermined value (for example, 0.02), the reflectance is determined to be approximately 0, and when the reflectance value is greater than or equal to the predetermined value, It is determined that the reflectance is not approximately 0. When the values of all the reflectances R1100, R1200, R1300, R1500, R1600 are approximately 0 (that is, when the determination result in step P21 is “YES”), the identification unit 23 is within the analysis target range. It is determined that the window glass exists in the entire area of the enlarged image 300 in this example.

一方、いずれかの反射率R1100,R1200,R1300,R1500,R1600の値が近似的に0でない場合(つまりステップP21における判定結果が「NO」である場合)には、次にステップP22において識別部23は、二次微分値2ndder1に正規化指標ND1,ND3の和を乗じた値「2ndder1×(ND1+ND3)」が所定の閾値Th11未満であるか否かを判定する。 On the other hand, if any of the reflectances R1100, R1200, R1300, R1500, R1600 is not approximately 0 (that is, if the determination result in step P21 is “NO”), then in step P22, the identification unit 23 determines whether a value “2 nd der1 × (ND1 + ND3)” obtained by multiplying the secondary differential value 2 nd der1 by the sum of the normalization indices ND1 and ND3 is less than a predetermined threshold Th11.

「2ndder1×(ND1+ND3)」の値が閾値Th11以上である場合(つまりステップP22における判定結果が「NO」である場合)には、次にステップP23において識別部23は、正規化指標ND2の値が所定の閾値Th12より大きいか否かを判定する。 When the value of “2 nd der1 × (ND1 + ND3)” is equal to or greater than the threshold Th11 (that is, when the determination result in Step P22 is “NO”), in Step P23, the identifying unit 23 then performs the normalization index ND2. It is determined whether the value of is greater than a predetermined threshold Th12.

正規化指標ND2の値が閾値Th12より大きい場合(つまりステップP23における判定結果が「YES」である場合)には、識別部23は、解析対象範囲内に動物又は布地が存在すると判定する。   When the value of the normalization index ND2 is larger than the threshold Th12 (that is, when the determination result in Step P23 is “YES”), the identification unit 23 determines that there is an animal or cloth within the analysis target range.

一方、正規化指標ND2の値が閾値Th12以下である場合(つまりステップP23における判定結果が「NO」である場合)には、次にステップP24において識別部23は、二次微分値2ndder2の値が所定の閾値Th13未満であるか否かを判定する。 On the other hand, when the value of the normalization index ND2 is equal to or less than the threshold Th12 (that is, when the determination result in Step P23 is “NO”), in Step P24, the identification unit 23 then determines the second derivative value 2 nd der2 It is determined whether the value of is less than a predetermined threshold value Th13.

二次微分値2ndder2の値が閾値Th13未満である場合(つまりステップP24における判定結果が「YES」である場合)には、識別部23は、解析対象範囲内に植物が存在すると判定する。 When the value of the secondary differential value 2 nd der2 is less than the threshold Th13 (that is, when the determination result in Step P24 is “YES”), the identification unit 23 determines that a plant exists in the analysis target range. .

一方、二次微分値2ndder2の値が閾値Th13以上である場合(つまりステップP24における判定結果が「NO」である場合)には、識別部23は、解析対象範囲内に人肌が存在すると判定する。 On the other hand, when the value of the second derivative 2 nd der2 is equal to or greater than the threshold Th13 (that is, when the determination result in Step P24 is “NO”), the identification unit 23 has human skin within the analysis target range. Judge that.

上記ステップP22の判定において、「2ndder1×(ND1+ND3)」の値が閾値Th11以上である場合(つまりステップP22における判定結果が「NO」である場合)には、次にステップP25において識別部23は、正規化指標ND3の値が所定の閾値Th14未満であるか否かを判定する。 If the value of “2 nd der1 × (ND1 + ND3)” is greater than or equal to the threshold Th11 in the determination in step P22 (that is, if the determination result in step P22 is “NO”), then in step P25, the identification unit 23 determines whether the value of the normalization index ND3 is less than a predetermined threshold Th14.

正規化指標ND3の値が閾値Th14未満である場合(つまりステップP25における判定結果が「YES」である場合)には、次にステップP26において識別部23は、正規化指標ND4の値が所定の閾値Th15未満であるか否かを判定する。   If the value of the normalized index ND3 is less than the threshold Th14 (that is, if the determination result in Step P25 is “YES”), then in Step P26, the identifying unit 23 determines that the value of the normalized index ND4 is a predetermined value. It is determined whether or not the threshold value is less than Th15.

正規化指標ND4の値が閾値Th15未満である場合(つまりステップP26における判定結果が「YES」である場合)には、識別部23は、解析対象範囲内に金属が存在すると判定する。   When the value of the normalization index ND4 is less than the threshold Th15 (that is, when the determination result in Step P26 is “YES”), the identification unit 23 determines that the metal exists within the analysis target range.

一方、正規化指標ND4の値が閾値Th15以上である場合(つまりステップP26における判定結果が「NO」である場合)には、識別部23は、解析対象範囲内にコンクリート又は石が存在すると判定する。   On the other hand, when the value of the normalization index ND4 is equal to or greater than the threshold Th15 (that is, when the determination result in Step P26 is “NO”), the identification unit 23 determines that concrete or stone exists within the analysis target range. To do.

上記ステップP25の判定において、正規化指標ND3の値が閾値Th14以上である場合(つまりステップP25における判定結果が「NO」である場合)には、次にステップP27において識別部23は、正規化指標ND2の値が所定の閾値Th16未満であるか否かを判定する。   If the value of the normalization index ND3 is equal to or greater than the threshold value Th14 in the determination in step P25 (that is, if the determination result in step P25 is “NO”), then in step P27, the identification unit 23 performs normalization. It is determined whether or not the value of the index ND2 is less than a predetermined threshold Th16.

正規化指標ND2の値が閾値Th16未満である場合(つまりステップP27における判定結果が「YES」である場合)には、識別部23は、解析対象範囲内にアスファルトが存在すると判定する。   When the value of the normalization index ND2 is less than the threshold Th16 (that is, when the determination result in Step P27 is “YES”), the identification unit 23 determines that asphalt exists within the analysis target range.

一方、正規化指標ND2の値が閾値Th16以上である場合(つまりステップP27における判定結果が「NO」である場合)には、識別部23は、解析対象範囲内にコンクリート又は石が存在すると判定する。   On the other hand, when the value of the normalization index ND2 is equal to or greater than the threshold Th16 (that is, when the determination result in Step P27 is “NO”), the identification unit 23 determines that concrete or stone exists within the analysis target range. To do.

なお、各閾値Th11〜Th16は、予め、金属や人肌等の既知の対象に対して測定領域を設定して識別部23による上記識別フローを実施することにより、対象を正確に識別できる適切な値に設定される。   In addition, each threshold value Th11 to Th16 is an appropriate value that can accurately identify a target by setting a measurement region for a known target such as metal or human skin in advance and performing the identification flow by the identification unit 23. Set to a value.

以上の結果、識別部23は、解析対象範囲内に人肌が存在すると判定した場合には、監視エリア4内に含まれている移動物体の種別は人間であると識別する。一方、それ以外の場合には、監視エリア4内に含まれている移動物体の種別は人間でないと識別する。例えば、解析対象範囲内に窓ガラス又は金属が存在すると判定した場合には、監視エリア4内に含まれている移動物体の種別は車であると識別する。   As a result, when the identification unit 23 determines that human skin exists within the analysis target range, the identification unit 23 identifies that the type of the moving object included in the monitoring area 4 is human. On the other hand, in other cases, the type of the moving object included in the monitoring area 4 is identified as not being human. For example, when it is determined that a window glass or metal exists within the analysis target range, the type of the moving object included in the monitoring area 4 is identified as a car.

なお、監視エリア4への侵入者が覆面や手袋を着用することによって人肌が露出していない状況も想定される。そのため、人間のみが着用する化学繊維等の材質を検出可能な識別フローを設定することにより、解析対象範囲内に化学繊維が存在すると判定した場合には、監視エリア4内に含まれている移動物体の種別は人間であると識別してもよい。   In addition, the situation where the intruder into the monitoring area 4 does not expose human skin by wearing a cover or gloves is also assumed. Therefore, if it is determined that a chemical fiber is present in the analysis target range by setting an identification flow that can detect a material such as a chemical fiber worn only by humans, the movement included in the monitoring area 4 The object type may be identified as human.

また、以上の説明では材質分析を行う解析対象範囲を拡大画像300の全体領域に設定したが、これとは異なる領域を解析対象範囲として設定することもできる。図11は、解析対象範囲の他の設定例を示す図である。拡大画像300の全体領域を複数の小領域301に分割し、各小領域301を解析対象範囲として順に設定することにより、各小領域301に関する材質分析を順に実行する。そして、複数の小領域301の少なくとも一つにおいて、人肌(又は化学繊維)が存在すると判定した場合には、識別部23は、監視エリア4内に含まれている移動物体の種別は人間であると識別する。他の例として、人間の頭部は円形又は楕円形であることに着目して、拡大画像300内に含まれている円形又は楕円形の領域302をパターンマッチング等によって抽出し、領域302を解析対象範囲として設定することにより、領域302に関する材質分析を実行する。そして、領域302内に人肌(又は化学繊維)が存在すると判定した場合には、識別部23は、監視エリア4内に含まれている移動物体の種別は人間であると識別する。なお、拡大画像300の全体領域を解析対象範囲として設定する手法、複数の小領域301を解析対象範囲として順に設定する手法、及び、円形又は楕円形の領域302を解析対象範囲として設定する手法は、互いに組み合わせて適用することもでき、複数の手法を組み合わせることによって識別精度を向上することができる。   In the above description, the analysis target range in which material analysis is performed is set in the entire area of the enlarged image 300. However, a different area can be set as the analysis target range. FIG. 11 is a diagram illustrating another setting example of the analysis target range. By dividing the entire area of the enlarged image 300 into a plurality of small areas 301 and sequentially setting each small area 301 as an analysis target range, material analysis on each small area 301 is sequentially executed. When it is determined that human skin (or chemical fiber) exists in at least one of the plurality of small regions 301, the identification unit 23 determines that the type of the moving object included in the monitoring area 4 is human. Identify it. As another example, paying attention to the human head having a circular or elliptical shape, a circular or elliptical region 302 included in the enlarged image 300 is extracted by pattern matching or the like, and the region 302 is analyzed. By setting the target range, the material analysis regarding the region 302 is executed. When it is determined that human skin (or chemical fiber) is present in the region 302, the identification unit 23 identifies that the type of the moving object included in the monitoring area 4 is human. A method for setting the entire region of the enlarged image 300 as an analysis target range, a method for sequentially setting a plurality of small regions 301 as an analysis target range, and a method for setting a circular or elliptical region 302 as an analysis target range are as follows. These can be applied in combination with each other, and the identification accuracy can be improved by combining a plurality of methods.

このように本実施の形態に係る監視装置3によれば、識別部23は、分析部22による材質分析の結果に基づいて、監視エリア4内に含まれている移動物体の種別を識別する。従って、材質分析の結果、人肌や化学繊維等が含まれている場合には、その移動物体は人間であると識別することができる。しかも、赤外光照射器15は、移動物体に対して波長が異なる複数の赤外光を順に照射し、取得部21は、各赤外光に対応する移動物体の画像を取得する。また、分析部22は、当該画像に基づいて移動物体に関する複数の赤外光のスペクトルを検出した結果に基づいて、移動物体の材質を分析する。このように、波長が異なる複数の赤外光を順に照射することにより、移動物体に関する複数の赤外光のスペクトルを正確に検出できるため、移動物体の材質を正確に分析できる。その結果、夜間においても、監視エリア4内に含まれている移動物体が人間であるかそれ以外の動物等であるかを識別することが可能となる。   As described above, according to the monitoring device 3 according to the present embodiment, the identification unit 23 identifies the type of the moving object included in the monitoring area 4 based on the result of the material analysis by the analysis unit 22. Therefore, when human skin, chemical fiber, or the like is included as a result of material analysis, the moving object can be identified as a human. Moreover, the infrared light irradiator 15 sequentially irradiates the moving object with a plurality of infrared lights having different wavelengths, and the acquisition unit 21 acquires an image of the moving object corresponding to each infrared light. The analysis unit 22 analyzes the material of the moving object based on the result of detecting a plurality of infrared light spectra related to the moving object based on the image. In this way, by sequentially irradiating a plurality of infrared lights having different wavelengths, the spectrum of the plurality of infrared lights related to the moving object can be accurately detected, so that the material of the moving object can be analyzed accurately. As a result, even at night, it is possible to identify whether the moving object included in the monitoring area 4 is a human being or an animal other than that.

また、本実施の形態に係る監視装置3によれば、取得部21は、広角カメラ11A,11Bによって監視エリア4の全体を撮影し、その撮影画像200に移動物体が含まれている場合に、望遠カメラ12によって移動物体を撮影することにより、移動物体の拡大画像300を得る。従って、広角カメラ11A,11Bによって監視エリア4の全体を広く撮影しつつ、望遠カメラ12によって移動物体の詳細な撮影を行うことが可能となる。しかも、位置特定部31は、広角カメラ11A,11Bの撮影画像200に移動物体が含まれている場合に、監視エリア4内における移動物体の位置を特定し、望遠カメラ12は、位置特定部31から指定された位置を撮影する。従って、望遠カメラ12によって移動物体を探索する必要がないため、望遠カメラ12による移動物体の撮影動作を遅滞なく開始することができる。しかも、分析部22は、望遠カメラ12によって撮影された拡大画像300に基づいて移動物体の材質分析を行う。従って、移動物体とは無関係の背景領域の影響を排除して、移動物体の材質分析を高精度に行うことができる。その結果、監視エリア4内に含まれている移動物体が人間であるかそれ以外の動物等であるかを正確に識別することが可能となる。   Moreover, according to the monitoring device 3 according to the present embodiment, the acquisition unit 21 captures the entire monitoring area 4 with the wide-angle cameras 11A and 11B, and when the captured image 200 includes a moving object, By capturing a moving object with the telephoto camera 12, an enlarged image 300 of the moving object is obtained. Accordingly, it is possible to take a detailed picture of a moving object with the telephoto camera 12 while photographing the entire monitoring area 4 widely with the wide-angle cameras 11A and 11B. Moreover, the position specifying unit 31 specifies the position of the moving object in the monitoring area 4 when the captured images 200 of the wide-angle cameras 11A and 11B include the moving object, and the telephoto camera 12 includes the position specifying unit 31. Shoots the position specified from. Accordingly, since it is not necessary to search for a moving object with the telephoto camera 12, the moving object photographing operation by the telephoto camera 12 can be started without delay. In addition, the analysis unit 22 performs material analysis of the moving object based on the enlarged image 300 captured by the telephoto camera 12. Therefore, the influence of the background area unrelated to the moving object can be eliminated, and the material analysis of the moving object can be performed with high accuracy. As a result, it is possible to accurately identify whether the moving object included in the monitoring area 4 is a human being or an animal other than that.

また、本実施の形態に係る監視装置3によれば、赤外光照射器15は望遠カメラ12に取り付けられている。従って、移動物体を追跡して撮影するための望遠カメラ12の駆動部と、移動物体を追跡して赤外光を照射するための赤外光照射器15の駆動部とを、別個に設ける必要がないため、装置構成の簡略化及び製造コストの低減を図ることができる。また、赤外光照射器15は、監視エリア4の全体に対して赤外光を照射するわけではなく、望遠カメラ12の撮影範囲に対応した狭い照射範囲に対して赤外光を照射すれば足りる。従って、監視エリア4の全体に対して赤外光を照射する場合と比較すると、消費電力を低減できるとともに、狭い照射範囲にパワーを集中させることで赤外光の照射強度を増大できるため、スペクトルの検出精度を向上することが可能となる。   Further, according to the monitoring device 3 according to the present embodiment, the infrared light irradiator 15 is attached to the telephoto camera 12. Accordingly, it is necessary to separately provide a driving unit for the telephoto camera 12 for tracking and photographing the moving object and a driving unit for the infrared light irradiator 15 for tracking the moving object and irradiating infrared light. Therefore, the device configuration can be simplified and the manufacturing cost can be reduced. Further, the infrared light irradiator 15 does not irradiate the entire monitoring area 4 with infrared light, but irradiates infrared light over a narrow irradiation range corresponding to the photographing range of the telephoto camera 12. It ’s enough. Therefore, compared to the case where the entire monitoring area 4 is irradiated with infrared light, the power consumption can be reduced and the intensity of infrared light irradiation can be increased by concentrating the power in a narrow irradiation range. Detection accuracy can be improved.

また、本実施の形態に係る監視装置3によれば、可視光照射器14は、監視エリア4の全体に対して可視光を照射する。従って、監視エリア4内に含まれている移動物体が人間であると識別された場合に、可視光に基づく当該移動物体のカラー画像を撮影して記録することが可能となる。   Further, according to the monitoring device 3 according to the present embodiment, the visible light irradiator 14 irradiates the entire monitoring area 4 with visible light. Therefore, when a moving object included in the monitoring area 4 is identified as a human, a color image of the moving object based on visible light can be taken and recorded.

また、本実施の形態に係る監視装置3によれば、光学系41と受光素子部42との間に分岐部51を配置し、光学系41から受光素子部42に向かう反射光を、分岐部51によって受光素子部53に向けて分岐させる。これにより、光学系41によって受光素子部42上に導光される反射光と共通の反射光を、受光素子部53上に導光することができる。その結果、分析部22は、望遠カメラ12によって得られる拡大画像300に対するスペクトル分析を正確に行うことが可能となる。しかも、スペクトル分析を行うための専用カメラ(ハイパースペクトルカメラ)を望遠カメラ12とは別に設ける必要がないため、装置を小型化できるとともに、共通の拡大画像を得るべく専用カメラの動作と望遠カメラ12の動作とを同期させる制御も不要となる。   Further, according to the monitoring device 3 according to the present embodiment, the branching unit 51 is disposed between the optical system 41 and the light receiving element unit 42, and the reflected light traveling from the optical system 41 toward the light receiving element unit 42 is separated. The light is branched by 51 toward the light receiving element portion 53. Thereby, the reflected light that is common to the reflected light guided onto the light receiving element portion 42 by the optical system 41 can be guided onto the light receiving element portion 53. As a result, the analysis unit 22 can accurately perform spectrum analysis on the enlarged image 300 obtained by the telephoto camera 12. In addition, since it is not necessary to provide a dedicated camera (hyperspectral camera) for performing spectrum analysis separately from the telephoto camera 12, the apparatus can be downsized and the operation of the dedicated camera and the telephoto camera 12 to obtain a common enlarged image. Control to synchronize with the operation is also unnecessary.

また、本実施の形態に係る監視装置3によれば、分析部22は、拡大画像300の全体領域、拡大画像300を分割した複数の小領域301、及び拡大画像300内に含まれる円形又は楕円形の領域302の少なくとも一つを対象としてスペクトル分析を行う。拡大画像300の全体領域を分析対象とすることにより、スペクトル分析を簡易に行うことができる。拡大画像300を分割した複数の小領域301を分析対象とすることにより、全体領域を分析対象とする場合と比較して高精度な分析を行うことができる。拡大画像300内に含まれる円形又は楕円形の領域302を分析対象とすることにより、拡大画像300内に顔が含まれている場合に、その顔を対象としたスペクトル分析を行うことができるため、移動物体が人間であるかそれ以外の動物等であるかを高精度に識別することが可能となる。   Further, according to the monitoring device 3 according to the present embodiment, the analysis unit 22 includes the entire area of the enlarged image 300, a plurality of small areas 301 obtained by dividing the enlarged image 300, and a circle or an ellipse included in the enlarged image 300. Spectral analysis is performed on at least one of the regions 302 of the shape. By using the entire area of the enlarged image 300 as an analysis target, spectrum analysis can be easily performed. By using a plurality of small regions 301 obtained by dividing the enlarged image 300 as analysis targets, it is possible to perform analysis with higher accuracy than when the entire region is set as an analysis target. Since a circular or elliptical region 302 included in the enlarged image 300 is set as an analysis target, when a face is included in the enlarged image 300, spectrum analysis can be performed on the face. It becomes possible to identify with high accuracy whether the moving object is a human being or an animal other than that.

なお、今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内での全ての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined not by the above-mentioned meaning but by the scope of claims for patent, and is intended to include all modifications within the scope and meaning equivalent to the scope of claims for patent.

3 監視装置
4 監視エリア
11A,11B 広角カメラ
12 望遠カメラ
14 可視光照射器
15 赤外光照射器
21 取得部
22 分析部
23 識別部
31 位置特定部
41 光学系
42,53 受光素子部
51 分岐部
54 演算部
300 拡大画像
301 小領域
302 領域
DESCRIPTION OF SYMBOLS 3 Monitoring apparatus 4 Monitoring area 11A, 11B Wide angle camera 12 Telephoto camera 14 Visible light irradiator 15 Infrared light irradiator 21 Acquisition part 22 Analysis part 23 Identification part 31 Position specification part 41 Optical system 42, 53 Light receiving element part 51 Branch part 54 arithmetic unit 300 enlarged image 301 small area 302 area

Claims (7)

移動物体が検出された場合に、当該移動物体に対して、波長が異なる複数の赤外光を順に照射する赤外光照射手段と、
前記赤外光照射手段から照射された各赤外光に対する前記移動物体からの反射光を受光することにより、各赤外光に対応する前記移動物体の画像を取得する取得手段と、
前記取得手段が取得した画像に基づいて、前記移動物体に関する前記複数の赤外光のスペクトルを検出し、その検出の結果に基づいて当該移動物体の材質を分析する分析手段と、
前記分析手段による分析の結果に基づいて、前記移動物体の種別を識別する識別手段と、
を備える、対象識別装置。
An infrared light irradiating means for sequentially irradiating the moving object with a plurality of infrared lights having different wavelengths when a moving object is detected;
Obtaining means for obtaining an image of the moving object corresponding to each infrared light by receiving reflected light from the moving object for each infrared light irradiated from the infrared light irradiating means;
Analyzing means for detecting a spectrum of the plurality of infrared lights related to the moving object based on the image acquired by the acquiring means, and analyzing the material of the moving object based on the detection result
Identification means for identifying the type of the moving object based on the result of analysis by the analysis means;
An object identification device comprising:
前記取得手段は、
比較的広画角の第1のカメラと、
前記第1のカメラが撮影した画像に前記移動物体が含まれている場合に、当該移動物体の位置を特定する特定手段と、
前記特定手段が特定した位置を撮影することによって、前記移動物体の拡大画像を得る比較的狭画角の第2のカメラと、
を有し、
前記分析手段は、前記拡大画像に基づいて前記移動物体の材質を分析する、請求項1に記載の対象識別装置。
The acquisition means includes
A first camera with a relatively wide angle of view;
A specifying means for specifying a position of the moving object when the moving object is included in an image captured by the first camera;
A second camera with a relatively narrow angle of view that obtains an enlarged image of the moving object by photographing the position specified by the specifying means;
Have
The object identification device according to claim 1, wherein the analysis unit analyzes a material of the moving object based on the enlarged image.
前記赤外光照射手段は前記第2のカメラに取り付けられている、請求項2に記載の対象識別装置。   The object identification apparatus according to claim 2, wherein the infrared light irradiation unit is attached to the second camera. 可視光を照射する可視光照射手段をさらに備える、請求項1〜3のいずれか一つに記載の対象識別装置。   The object identification device according to claim 1, further comprising visible light irradiation means for irradiating visible light. 前記第2のカメラは、
可視光を受光する第1の受光素子部と、
前記可視光照射手段から照射された可視光に対する前記移動物体からの反射光を、前記第1の受光素子部上に導光する光学系と、
を含み、
前記分析手段は、
赤外光を受光する第2の受光素子部と、
前記光学系と前記第1の受光素子部との間に配置され、前記光学系から前記第1の受光素子部に向かう、前記赤外光照射手段から照射された各赤外光に対する前記移動物体からの反射光を、前記第2の受光素子部に向けて分岐させる分岐手段と、
を含む、請求項4に記載の対象識別装置。
The second camera is
A first light receiving element for receiving visible light;
An optical system for guiding the reflected light from the moving object with respect to the visible light irradiated from the visible light irradiation means onto the first light receiving element unit;
Including
The analysis means includes
A second light receiving element portion for receiving infrared light;
The moving object for each infrared light emitted from the infrared light radiating means, which is disposed between the optical system and the first light receiving element unit and travels from the optical system toward the first light receiving element unit. Branching means for branching the reflected light from the second light receiving element part,
The object identification device according to claim 4, comprising:
前記分析手段は、
前記拡大画像の全体領域、
前記拡大画像を分割した複数の小領域、及び
前記拡大画像内に含まれる円形又は楕円形の領域
の少なくとも一つを対象として、前記移動物体の材質を分析する、請求項2又は3に記載の対象識別装置。
The analysis means includes
The entire area of the enlarged image,
The material of the moving object is analyzed for at least one of a plurality of small areas obtained by dividing the enlarged image and a circular or elliptical area included in the enlarged image. Object identification device.
(A)移動物体が検出された場合に、当該移動物体に対して、波長が異なる複数の赤外光を順に照射するステップと、
(B)前記ステップ(A)によって照射された各赤外光に対する前記移動物体からの反射光を受光することにより、各赤外光に対応する前記移動物体の画像を取得するステップと、
(C)前記ステップ(B)によって取得した画像に基づいて、前記移動物体に関する前記複数の赤外光のスペクトルを検出し、その検出の結果に基づいて当該移動物体の材質を分析するステップと、
(D)前記ステップ(C)による分析の結果に基づいて、前記移動物体の種別を識別するステップと、
を備える、対象識別方法。

(A) when a moving object is detected, sequentially irradiating the moving object with a plurality of infrared lights having different wavelengths;
(B) obtaining an image of the moving object corresponding to each infrared light by receiving reflected light from the moving object with respect to each infrared light irradiated in the step (A);
(C) detecting a spectrum of the plurality of infrared lights related to the moving object based on the image acquired in the step (B), and analyzing a material of the moving object based on a result of the detection;
(D) identifying the type of the moving object based on the result of the analysis in step (C);
An object identification method comprising:

JP2010256088A 2010-11-16 2010-11-16 Object identification device and object identification method Expired - Fee Related JP5605565B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010256088A JP5605565B2 (en) 2010-11-16 2010-11-16 Object identification device and object identification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010256088A JP5605565B2 (en) 2010-11-16 2010-11-16 Object identification device and object identification method

Publications (2)

Publication Number Publication Date
JP2012107944A true JP2012107944A (en) 2012-06-07
JP5605565B2 JP5605565B2 (en) 2014-10-15

Family

ID=46493740

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010256088A Expired - Fee Related JP5605565B2 (en) 2010-11-16 2010-11-16 Object identification device and object identification method

Country Status (1)

Country Link
JP (1) JP5605565B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014157124A (en) * 2013-02-18 2014-08-28 Sumitomo Electric Ind Ltd Person detection device
JP2014157098A (en) * 2013-02-16 2014-08-28 Sumitomo Electric Ind Ltd Human determination device
JP2016070845A (en) * 2014-09-30 2016-05-09 オムロン株式会社 Object detection device and object detection method
JP2018132309A (en) * 2017-02-13 2018-08-23 株式会社Ihi Search method and search system
CN112926702A (en) * 2019-12-06 2021-06-08 李雯毓 Active light source type object material identification system and method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH112603A (en) * 1997-06-12 1999-01-06 Osaka Gas Co Ltd Self-propelled gas visualizing device and gas visualizing device
JP2001257927A (en) * 2000-03-09 2001-09-21 Technosonic:Kk Object tracking device
JP2001257928A (en) * 2000-03-09 2001-09-21 Technosonic:Kk Object tracking device
JP3423861B2 (en) * 1997-07-17 2003-07-07 株式会社日立製作所 Method and apparatus for monitoring a moving object
JP2006047067A (en) * 2004-08-03 2006-02-16 Funai Electric Co Ltd Human body detecting device and human body detecting method
JP2008275477A (en) * 2007-04-27 2008-11-13 Tokyo Institute Of Technology Region extraction device and method
JP2010217149A (en) * 2009-03-19 2010-09-30 Tokyo Institute Of Technology Object discerning device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH112603A (en) * 1997-06-12 1999-01-06 Osaka Gas Co Ltd Self-propelled gas visualizing device and gas visualizing device
JP3423861B2 (en) * 1997-07-17 2003-07-07 株式会社日立製作所 Method and apparatus for monitoring a moving object
JP2001257927A (en) * 2000-03-09 2001-09-21 Technosonic:Kk Object tracking device
JP2001257928A (en) * 2000-03-09 2001-09-21 Technosonic:Kk Object tracking device
JP2006047067A (en) * 2004-08-03 2006-02-16 Funai Electric Co Ltd Human body detecting device and human body detecting method
JP2008275477A (en) * 2007-04-27 2008-11-13 Tokyo Institute Of Technology Region extraction device and method
JP2010217149A (en) * 2009-03-19 2010-09-30 Tokyo Institute Of Technology Object discerning device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014157098A (en) * 2013-02-16 2014-08-28 Sumitomo Electric Ind Ltd Human determination device
JP2014157124A (en) * 2013-02-18 2014-08-28 Sumitomo Electric Ind Ltd Person detection device
JP2016070845A (en) * 2014-09-30 2016-05-09 オムロン株式会社 Object detection device and object detection method
JP2018132309A (en) * 2017-02-13 2018-08-23 株式会社Ihi Search method and search system
CN112926702A (en) * 2019-12-06 2021-06-08 李雯毓 Active light source type object material identification system and method

Also Published As

Publication number Publication date
JP5605565B2 (en) 2014-10-15

Similar Documents

Publication Publication Date Title
US11601601B2 (en) Optical array for high-quality imaging in harsh environments
JP5664161B2 (en) Monitoring system and monitoring device
EP2467805B1 (en) Method and system for image analysis
US9996748B2 (en) Emitter tracking system
US9336439B2 (en) System and method for the long range acquisition of iris images from stationary and mobile subjects
CN107158579B (en) Automatic positioning optical treatment instrument capable of visualizing skin lesion and control method
KR101182188B1 (en) Ir sensor and sensing method using the same
JP5605565B2 (en) Object identification device and object identification method
WO2009116242A1 (en) Driver monitoring apparatus, driver monitoring method, and vehicle
CN102809434A (en) Methods and apparatus for thermographic measurements
KR20160050755A (en) Electronic Device and Method for Recognizing Iris by the same
CN103300812A (en) Endoscope-based multispectral video navigation system and method
JP2008246004A (en) Pupil detection method
CN110532849A (en) Multi-spectral image processing system for face detection
KR20120093502A (en) Obstacle detecting system using of laser, and method thereof
CN108603997A (en) control device, control method and control program
KR20120007734A (en) Distance measuring module and display device including the same, distance measuring method of display device
CN205539525U (en) Automatic seek system of camera
JP2011234871A (en) Endoscope system
CN114945955A (en) Iris image acquisition system for enlarging iris recognition range
JP5845858B2 (en) Object detection apparatus and object detection method
JP5771955B2 (en) Object identification device and object identification method
WO2018150554A1 (en) Pulse wave measuring device, mobile terminal device, and pulse wave measuring method
JP5699557B2 (en) Object identification device and object identification method
EP4279007A1 (en) Depilatory device and depilation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130926

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140226

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140812

R150 Certificate of patent or registration of utility model

Ref document number: 5605565

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees