JP2020140225A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2020140225A
JP2020140225A JP2019032963A JP2019032963A JP2020140225A JP 2020140225 A JP2020140225 A JP 2020140225A JP 2019032963 A JP2019032963 A JP 2019032963A JP 2019032963 A JP2019032963 A JP 2019032963A JP 2020140225 A JP2020140225 A JP 2020140225A
Authority
JP
Japan
Prior art keywords
image
data
analysis
moving object
analysis data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019032963A
Other languages
Japanese (ja)
Other versions
JP7124760B2 (en
Inventor
俊之 村松
Toshiyuki Muramatsu
俊之 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2019032963A priority Critical patent/JP7124760B2/en
Publication of JP2020140225A publication Critical patent/JP2020140225A/en
Application granted granted Critical
Publication of JP7124760B2 publication Critical patent/JP7124760B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

To provide an image processing apparatus allowing for improvement of accuracy of recognition of a moving body reflected at an edge of an image.SOLUTION: The image processing apparatus comprises a first image acquisition unit 10 that acquires image data related to a first image from a first sensor 200 imaging a first area, a second image acquisition 20 that acquires image data related to a second image from a second sensor 300 imaging a second area that overlaps at least partly with the first area and is not included in the first area, a first analysis unit 30 that generates first analysis data D1 in which a position and an occupation area of the moving body reflected in the first image are detected, a second analysis unit 40 that generate second analysis data D2 in which a position and an occupation area of the moving body reflected in the second image are detected, and a data comparison processing unit 50 that interpolates or corrects identification information of the moving body that appears to protrude from an image edge of the first image or the second image based on the first analysis data D1 and the second analysis data D2.SELECTED DRAWING: Figure 4

Description

本開示は、画像処理装置、及び画像処理方法に関する。 The present disclosure relates to an image processing apparatus and an image processing method.

カメラ等で撮影された画像に基づいて、撮像領域内に存在する動体の位置を検出する画像処理装置が知られている。この種の画像処理装置は、特に、工事現場や工場などの業務環境において、人や作業機(以下、「動体」と総称する)の位置を正確に把握し、当該動体の行動又は動作を解析したり、当該動体の行動又は動作を予測する用途(以下、「行動解析」と総称する)への適用が期待されている。 An image processing device that detects the position of a moving object existing in the imaging region based on an image taken by a camera or the like is known. This type of image processing device accurately grasps the positions of people and working machines (hereinafter collectively referred to as "moving objects"), especially in a business environment such as a construction site or a factory, and analyzes the behavior or movement of the moving object. It is expected to be applied to applications that predict the behavior or behavior of the moving object (hereinafter collectively referred to as "behavior analysis").

例えば、特許文献1には、解像能力の異なる2つのセンサを利用して動体認識を行い、状況に応じてどちらのセンサの動体認識結果を採用するかを切り替えることで、認識精度を向上させようとする技術が開示されている。 For example, in Patent Document 1, moving object recognition is performed using two sensors having different resolution abilities, and the recognition accuracy is improved by switching which sensor's moving object recognition result is adopted according to the situation. The technology to be attempted is disclosed.

特開2014−167702号公報Japanese Unexamined Patent Publication No. 2014-167702

ところで、この種の画像処理装置において、動体の行動解析の精度を高めるためには、画像内に映る動体の各部位がどの位置に存在するかを認識する必要がある。 By the way, in this kind of image processing apparatus, in order to improve the accuracy of behavior analysis of a moving body, it is necessary to recognize the position of each part of the moving body reflected in the image.

しかしながら、実際には、必ずしも行動解析の対象となる動体の全体が、画像内に映るように撮像されるわけではなく、当該動体の一部が、画像からはみ出すようにして撮像されている場合もある。このような場合、典型的には、当該動体は、画像内において、当該動体の複数の部位が分離するようにして映ることになる(後述する図6A、図6Bを参照)。 However, in reality, the entire moving object to be analyzed for behavior is not always imaged so as to be reflected in the image, and a part of the moving object may be imaged so as to protrude from the image. is there. In such a case, the moving object is typically projected so that a plurality of parts of the moving object are separated from each other in the image (see FIGS. 6A and 6B described later).

この際、従来技術に係る画像処理装置では、画像内に分離して映る一つの動体の複数の部位それぞれを、別個の動体と認識してしまうおそれがある。その結果、動体の数や姿勢、動体のトラッキングの認識の精度悪化を招くことになる。 At this time, in the image processing apparatus according to the prior art, there is a possibility that each of a plurality of parts of one moving object that are separately reflected in the image may be recognized as separate moving objects. As a result, the accuracy of recognition of the number and posture of moving objects and tracking of moving objects is deteriorated.

本開示は、上記問題点に鑑みてなされたもので、画像端に映る動体の認識精度を向上し得る画像処理装置及び画像処理方法を提供することを目的とする。 The present disclosure has been made in view of the above problems, and an object of the present disclosure is to provide an image processing apparatus and an image processing method capable of improving the recognition accuracy of a moving object reflected on an image edge.

前述した課題を解決する主たる本開示は、
第1領域を撮像する第1センサから第1画像に係る画像データを取得する第1画像取得部と、
前記第1領域と少なくとも一部が重複し、且つ、前記第1領域に含まれない領域を含む第2領域を撮像する第2センサから第2画像に係る画像データを取得する第2画像取得部と、
前記第1画像に係る画像データに基づいて、前記第1画像内に映る動体の位置及び占有領域を検出した第1解析データを生成する第1解析部と、
前記第2画像に係る画像データに基づいて、前記第2画像内に映る動体の位置及び占有領域を検出した第2解析データを生成する第2解析部と、
前記第1解析データと前記第2解析データとに基づいて、前記第1画像又は前記第2画像の画像端からはみ出るようにして映る動体の識別情報を補間又は補正するデータ比較処理部と、
を備える画像処理装置である。
The main disclosure that solves the above-mentioned problems is
A first image acquisition unit that acquires image data related to the first image from the first sensor that captures the first region, and
A second image acquisition unit that acquires image data related to a second image from a second sensor that images a second region that includes a region that overlaps at least a part of the first region and is not included in the first region. When,
A first analysis unit that generates first analysis data that detects the position and occupied area of a moving object reflected in the first image based on the image data related to the first image.
A second analysis unit that generates second analysis data that detects the position and occupied area of a moving object reflected in the second image based on the image data related to the second image.
A data comparison processing unit that interpolates or corrects identification information of a moving object that appears so as to protrude from the image edge of the first image or the second image based on the first analysis data and the second analysis data.
It is an image processing apparatus provided with.

又、他の局面では、
第1領域を撮像する第1センサから第1画像に係る画像データを取得し、
前記第1領域と少なくとも一部が重複し、且つ、前記第1領域に含まれない領域を含む第2領域を撮像する第2センサから第2画像に係る画像データを取得し、
前記第1画像に係る画像データに基づいて、前記第1画像内に映る動体の位置及び占有領域を検出した第1解析データを生成し、
前記第2画像に係る画像データに基づいて、前記第2画像内に映る動体の位置及び占有領域を検出した第2解析データを生成し、
前記第1解析データと前記第2解析データとに基づいて、前記第1画像又は前記第2画像の画像端からはみ出るようにして映る動体の識別情報を補間又は補正する、
画像処理方法である。
Also, in other aspects,
Image data related to the first image is acquired from the first sensor that captures the first region, and
Image data related to the second image is acquired from the second sensor that images the second region including the region that overlaps at least a part of the first region and is not included in the first region.
Based on the image data related to the first image, the first analysis data in which the position and the occupied area of the moving object reflected in the first image are detected is generated.
Based on the image data related to the second image, the second analysis data in which the position and the occupied area of the moving object reflected in the second image are detected is generated.
Based on the first analysis data and the second analysis data, the identification information of the moving object that appears so as to protrude from the image edge of the first image or the second image is interpolated or corrected.
This is an image processing method.

本開示に係る画像処理装置によれば、画像端に映る動体の認識精度を向上することが可能である。 According to the image processing apparatus according to the present disclosure, it is possible to improve the recognition accuracy of a moving object reflected on the edge of an image.

第1の実施形態に係る監視システムの一例を示す図The figure which shows an example of the monitoring system which concerns on 1st Embodiment 第1の実施形態に係る監視システムにおけるレーザーレーダーの視野(即ち、撮像範囲)とカメラの視野(即ち、撮像範囲)とを示す図The figure which shows the field of view (that is, the imaging range) of a laser radar and the field of view (that is, an imaging range) of a camera in the monitoring system which concerns on 1st Embodiment 第1の実施形態に係る画像処理装置のハードウェア構成を示す図The figure which shows the hardware configuration of the image processing apparatus which concerns on 1st Embodiment 第1の実施形態に係る画像処理装置の機能ブロックを示す図The figure which shows the functional block of the image processing apparatus which concerns on 1st Embodiment 第1解析部により生成される解析データの一例を示す図The figure which shows an example of the analysis data generated by the 1st analysis part 第2解析部により生成される解析データの一例を示す図The figure which shows an example of the analysis data generated by the 2nd analysis part 第1解析部により生成される解析データを距離画像に重ね合わせて示した図The figure which superposed the analysis data generated by the 1st analysis part on the distance image. 第2解析部により生成される解析データをカメラ画像に重ね合わせて示した図The figure which superposed the analysis data generated by the 2nd analysis part on the camera image. データ出力部が生成する表示画像の一例を示す図The figure which shows an example of the display image generated by the data output part 第1の実施形態に係る画像処理装置(データ比較処理部)が第1解析データと第2解析データとを比較する処理を示すフローチャートA flowchart showing a process in which the image processing apparatus (data comparison processing unit) according to the first embodiment compares the first analysis data with the second analysis data. 第2の実施形態に係る図8のフローチャートの処理を模式的に説明する図The figure schematically explaining the process of the flowchart of FIG. 8 which concerns on 2nd Embodiment 第2の実施形態に係る図8のフローチャートの処理を模式的に説明する図The figure schematically explaining the process of the flowchart of FIG. 8 which concerns on 2nd Embodiment 第2の実施形態に係る図8のフローチャートの処理を模式的に説明する図The figure schematically explaining the process of the flowchart of FIG. 8 which concerns on 2nd Embodiment 第2の実施形態に係る画像処理装置の構成を示す図The figure which shows the structure of the image processing apparatus which concerns on 2nd Embodiment 第3の実施形態に係る画像処理装置の構成を示す図The figure which shows the structure of the image processing apparatus which concerns on 3rd Embodiment

以下に添付図面を参照しながら、本開示の好適な実施形態について詳細に説明する。尚、本明細書及び図面において、実質的に同一の機能を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Preferred embodiments of the present disclosure will be described in detail below with reference to the accompanying drawings. In the present specification and the drawings, components having substantially the same function are designated by the same reference numerals, so that duplicate description will be omitted.

(第1の実施形態)
[監視システムの全体構成]
以下、図1〜図4を参照して、一実施形態に係る監視システムの構成、及び監視システムに適用した画像処理装置の構成の概要について説明する。
(First Embodiment)
[Overall configuration of monitoring system]
Hereinafter, with reference to FIGS. 1 to 4, an outline of the configuration of the monitoring system according to the embodiment and the configuration of the image processing device applied to the monitoring system will be described.

図1は、本実施形態に係る監視システムUの一例を示す図である。本実施形態に係る監視システムUは、工事現場内に存在する動体(ここでは、作業機M1、作業機M2)の動きを解析する用途に適用されている。 FIG. 1 is a diagram showing an example of the monitoring system U according to the present embodiment. The monitoring system U according to the present embodiment is applied to an application for analyzing the movement of moving objects (here, working machine M1 and working machine M2) existing in a construction site.

本実施形態に係る監視システムUは、画像処理装置100、レーザーレーダー200、及び、カメラ300を備えている。 The monitoring system U according to the present embodiment includes an image processing device 100, a laser radar 200, and a camera 300.

レーザーレーダー200(本発明の「第1センサ」に相当)(Light Detection And Ranging:LiDARとも称される)は、レーザ光を打ち出し、当該レーザ光が動体に反射して戻ってくるまでの時間(TOF:Time of Flight)を測定することで、自身の位置から動体の位置までの距離を求める。レーザーレーダー200は、かかる処理を、監視対象領域が映る所定範囲内を走査しながら行うことにより、距離画像に係る画像データ(以下、「距離画像」と略称する)を生成する。尚、レーザーレーダー200は、フレーム単位の距離画像を連続的に生成し、時系列に並んだ距離画像(即ち、動画像)を画像処理装置100に対して出力する。 The laser radar 200 (corresponding to the "first sensor" of the present invention) (also referred to as Light Detection And Ranging: LiDAR) emits a laser beam, and the time until the laser beam is reflected by a moving object and returned ( By measuring TOF: Time of Flight), the distance from one's own position to the position of a moving object is obtained. The laser radar 200 generates image data related to a distance image (hereinafter, abbreviated as "distance image") by performing such processing while scanning within a predetermined range in which a monitored area is projected. The laser radar 200 continuously generates distance images in frame units, and outputs distance images (that is, moving images) arranged in time series to the image processing device 100.

距離画像は、各走査位置を画素として、画素毎に、レーザーレーダー200の測定データ(例えば、距離及び反射強度)が画素値として対応付けられた画像である(点群データとも称される)。距離画像は、監視対象領域内における動体の3次元(例えば、水平方向、鉛直方向、及び奥行方向)の位置を示すものであり、例えば、動体の存在位置を3次元の直交座標系(X、Y、Z)で表す。 The distance image is an image in which each scanning position is a pixel and the measurement data (for example, distance and reflection intensity) of the laser radar 200 is associated with each pixel as a pixel value (also referred to as point group data). The distance image shows the position of the moving object in three dimensions (for example, the horizontal direction, the vertical direction, and the depth direction) in the monitored area. For example, the position of the moving object is set in the three-dimensional Cartesian coordinate system (X,). It is represented by Y, Z).

カメラ300(本発明の「第2センサ」に相当)は、例えば、可視カメラであり、自身の有する撮像素子(CMOSセンサ又はCCDセンサ)が生成した画像信号をAD変換して、カメラ画像に係る画像データ(以下、「カメラ画像」と略称する)を生成する。尚、カメラ300は、フレーム単位のカメラ画像を連続的に生成して、時系列に並んだカメラ画像(即ち、動画像)を画像処理装置100に対して出力する。 The camera 300 (corresponding to the "second sensor" of the present invention) is, for example, a visible camera, and relates to a camera image by AD-converting an image signal generated by its own image sensor (CMOS sensor or CCD sensor). Image data (hereinafter abbreviated as "camera image") is generated. The camera 300 continuously generates camera images in frame units, and outputs camera images (that is, moving images) arranged in time series to the image processing device 100.

カメラ画像は、例えば、画素毎に、RGBそれぞれについての輝度値(例えば、RGBそれぞれについての256階調の輝度値)が画素値として対応付けられた画像である。 The camera image is, for example, an image in which a luminance value for each of RGB (for example, a luminance value of 256 gradations for each of RGB) is associated as a pixel value for each pixel.

図2は、本実施形態に係る監視システムUにおけるレーザーレーダー200の視野(即ち、撮像範囲)とカメラ300の視野(即ち、撮像範囲)とを示す図である。尚、図2中では、R1領域がレーザーレーダー200の視野を表し、R2領域がカメラ300の視野を表す。 FIG. 2 is a diagram showing a field of view (that is, an imaging range) of the laser radar 200 and a field of view (that is, an imaging range) of the camera 300 in the monitoring system U according to the present embodiment. In FIG. 2, the R1 region represents the field of view of the laser radar 200, and the R2 region represents the field of view of the camera 300.

レーザーレーダー200及びカメラ300は、同一の監視対象領域を撮像するように、当該監視対象領域付近の適宜な位置に設置されている。即ち、レーザーレーダー200の視野とカメラ300の視野とは、注目視野が共通となるように設置されている。但し、レーザーレーダー200の視野の一部は、カメラ300の視野外の領域を含み、カメラ300の視野の一部は、レーザーレーダー200の視野外の領域を含む。 The laser radar 200 and the camera 300 are installed at appropriate positions near the monitored area so as to image the same monitored area. That is, the field of view of the laser radar 200 and the field of view of the camera 300 are set so as to have a common field of view. However, a part of the field of view of the laser radar 200 includes a region outside the field of view of the camera 300, and a part of the field of view of the camera 300 includes a region outside the field of view of the laser radar 200.

一般に、レーザーレーダー200の視野は、図2のR1領域に示すように、横方向(ここでは、水平方向)に長く、縦方向(ここでは、垂直方向)に短い。一方、カメラ300の視野は、図2のR2領域に示すように、レーザーレーダー200の視野に比較して、正方形に近い。そのため、レーザーレーダー200の視野(即ち、撮像対象領域)は、横方向については、カメラ300の視野(即ち、撮像対象領域)よりも広く、縦方向については、カメラ300の視野(即ち、撮像対象領域)よりも狭くなるケースが多い。そのため、レーザーレーダー200の視野とカメラ300の視野とは、一部が重複し、一部が他方の視野外の領域を含んでいる。 In general, the field of view of the laser radar 200 is long in the horizontal direction (here, the horizontal direction) and short in the vertical direction (here, the vertical direction), as shown in the R1 region of FIG. On the other hand, the field of view of the camera 300 is closer to a square than the field of view of the laser radar 200, as shown in the R2 region of FIG. Therefore, the field of view of the laser radar 200 (that is, the imaging target area) is wider than the field of view of the camera 300 (that is, the imaging target area) in the horizontal direction, and the field of view of the camera 300 (that is, the imaging target area) in the vertical direction. In many cases, it is narrower than the area). Therefore, the field of view of the laser radar 200 and the field of view of the camera 300 partially overlap, and a part includes a region outside the other field of view.

画像処理装置100は、レーザーレーダー200で生成された距離画像の画像データ、及び、カメラ300で生成されたカメラ画像の画像データに基づいて、監視対象領域内に存在する動体(図1では、作業機M1、作業機M2)の動きをトラッキングし、そのトラッキング結果を出力する。 The image processing device 100 is a moving object existing in the monitored area based on the image data of the distance image generated by the laser radar 200 and the image data of the camera image generated by the camera 300 (work in FIG. 1). The movement of the machine M1 and the working machine M2) is tracked, and the tracking result is output.

図3は、本実施形態に係る画像処理装置100のハードウェア構成を示す図である。 FIG. 3 is a diagram showing a hardware configuration of the image processing device 100 according to the present embodiment.

画像処理装置100は、主たるコンポーネントとして、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、外部記憶装置(例えば、フラッシュメモリ)104、及び通信インタフェイス105等を備えたコンピュータである。 The image processing device 100 has a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, an external storage device (for example, a flash memory) 104, and a communication interface 105 as main components. It is a computer equipped with such as.

画像処理装置100の後述する各機能は、例えば、CPU101がROM102、RAM103、外部記憶装置104等に記憶された制御プログラム(例えば、画像処理プログラム)や各種データを参照することによって実現される。但し、各機能の一部又は全部は、CPUによる処理に代えて、又は、これと共に、DSP(Digital Signal Processor)による処理によって実現されてもよい。又、同様に、各機能の一部又は全部は、ソフトウェアによる処理に代えて、又は、これと共に、専用のハードウェア回路(例えば、ASIC又はFPGA)による処理によって実現されてもよい。 Each function described later in the image processing device 100 is realized, for example, by the CPU 101 referring to a control program (for example, an image processing program) or various data stored in the ROM 102, the RAM 103, the external storage device 104, or the like. However, a part or all of each function may be realized by processing by a DSP (Digital Signal Processor) instead of or in combination with the processing by the CPU. Similarly, a part or all of each function may be realized by processing by a dedicated hardware circuit (for example, ASIC or FPGA) instead of or in combination with the processing by software.

[画像処理装置の構成]
次に、図4〜図7を参照して、本実施形態に係る画像処理装置100の構成の一例について説明する。
[Configuration of image processing device]
Next, an example of the configuration of the image processing device 100 according to the present embodiment will be described with reference to FIGS. 4 to 7.

図4は、本実施形態に係る画像処理装置100の機能ブロックを示す図である。尚、図4中の矢印は、データの流れを表す。 FIG. 4 is a diagram showing a functional block of the image processing device 100 according to the present embodiment. The arrows in FIG. 4 represent the flow of data.

図5Aは、第1解析部30により生成される解析データD1の一例を示す図であり、図5Bは、第2解析部40により生成される解析データD2の一例を示す図である。尚、図5A、図5Bは、各クレームにおける動体の位置を示しており、ID(本発明の「識別情報」に相当する)は各動体の識別番号を表し、t=0、t=1、t=2…はフレーム番号を表す。 FIG. 5A is a diagram showing an example of analysis data D1 generated by the first analysis unit 30, and FIG. 5B is a diagram showing an example of analysis data D2 generated by the second analysis unit 40. 5A and 5B show the positions of the moving objects in each claim, and the ID (corresponding to the "identification information" of the present invention) represents the identification number of each moving object, and t = 0, t = 1, t = 2 ... Represents a frame number.

図6Aは、第1解析部30により生成される解析データD1(即ち、動体の位置及び占有領域)を距離画像に重ね合わせて示した図であり、図6Bは、第2解析部40により生成される解析データD2(即ち、動体の位置及び占有領域)をカメラ画像に重ね合わせて示した図である。 FIG. 6A is a diagram showing the analysis data D1 (that is, the position and occupied area of the moving body) generated by the first analysis unit 30 superimposed on the distance image, and FIG. 6B is a diagram generated by the second analysis unit 40. It is a figure which superposed the analysis data D2 (that is, the position and occupied area of a moving body) to be performed on a camera image.

画像処理装置100は、第1画像取得部10、第2画像取得部20、第1解析部30、第2解析部40、データ比較処理部50、及び、データ出力部60を備えている。 The image processing device 100 includes a first image acquisition unit 10, a second image acquisition unit 20, a first analysis unit 30, a second analysis unit 40, a data comparison processing unit 50, and a data output unit 60.

第1画像取得部10は、レーザーレーダー200が生成した距離画像(本発明の「第1画像」に相当)を取得する。尚、第1画像取得部10は、レーザーレーダー200から、時系列に並んだ距離画像を順次取得する。 The first image acquisition unit 10 acquires a distance image (corresponding to the “first image” of the present invention) generated by the laser radar 200. The first image acquisition unit 10 sequentially acquires distance images arranged in time series from the laser radar 200.

第2画像取得部20は、カメラ300が生成したカメラ画像(本発明の「第2画像」に相当)を取得する。尚、第2画像取得部20は、カメラ300から、時系列に並んだカメラ画像を順次取得する。 The second image acquisition unit 20 acquires a camera image (corresponding to the “second image” of the present invention) generated by the camera 300. The second image acquisition unit 20 sequentially acquires camera images arranged in chronological order from the camera 300.

第1解析部30は、距離画像内に映る動体の位置及び占有領域を検出した解析データ(以下、「第1解析データ」と称する)D1を生成する。この際、第1解析部30は、時系列に並んだ距離画像に基づいて、監視対象領域に存在する動体の位置を解析し、その結果を第1解析データD1として出力する。 The first analysis unit 30 generates analysis data (hereinafter, referred to as “first analysis data”) D1 that detects the position and the occupied area of the moving object reflected in the distance image. At this time, the first analysis unit 30 analyzes the position of the moving object existing in the monitored area based on the distance images arranged in time series, and outputs the result as the first analysis data D1.

具体的には、第1解析部30は、時系列に並んだ距離画像の各フレームに映る動体を検出し、動体毎に、IDを付与すると共に、その動体が存在する位置及び占有領域を、IDと関連付けて記憶する。第1解析部30は、例えば、注目フレームで検出された動体とその前フレームで検出された動体との関連度を算出し、当該関連度に基づいて、注目フレームで検出された動体と前フレームで検出された動体との同一性を判定する。そして、この際、第1解析部30は、注目フレームで検出された動体と前フレームで検出された動体とが同一である場合には、注目フレームで検出された動体に対して、前フレームで検出された動体と同一のIDを付与し、注目フレームで検出された動体と前フレームで検出された動体とが同一でない場合には、注目フレームで検出された動体に対して、新規なIDを付与する。このようにして、第1解析部30は、各フレームに映る動体を、各別に、トラッキングする。 Specifically, the first analysis unit 30 detects moving objects reflected in each frame of the distance images arranged in time series, assigns an ID to each moving object, and determines the position and occupied area where the moving object exists. It is stored in association with the ID. The first analysis unit 30 calculates, for example, the degree of association between the moving object detected in the attention frame and the moving object detected in the previous frame, and based on the degree of association, the moving object detected in the attention frame and the previous frame. Judge the identity with the moving body detected in. At this time, when the moving body detected in the attention frame and the moving body detected in the previous frame are the same, the first analysis unit 30 refers to the moving body detected in the attention frame in the previous frame. The same ID as the detected moving object is given, and if the moving object detected in the attention frame and the moving object detected in the previous frame are not the same, a new ID is given to the moving object detected in the attention frame. Give. In this way, the first analysis unit 30 tracks the moving object reflected in each frame separately.

第1解析部30は、本実施形態では、人や作業機等、一体的な動体毎に、IDを付与すると共に、その存在位置を特定する。但し、第1解析部30は、人の腕、頭、又は脚等、一つの個体の各部位を各別の動体として認識し、当該個体の部位毎の位置を認識するものであってもよい。 In the present embodiment, the first analysis unit 30 assigns an ID to each integrated moving object such as a person or a working machine, and specifies the existence position thereof. However, the first analysis unit 30 may recognize each part of one individual such as a human arm, head, or leg as a separate moving body, and recognize the position of each part of the individual. ..

尚、第1解析部30が距離画像中から動体を検出する手法は、公知の任意の手法であってよい。第1解析部30は、例えば、注目フレームと前フレームとの差分を取ることによって、動体を検出してもよい。又、第1解析部30は、例えば、距離画像中の測距点のクラスタの特徴量(例えば、形状及びサイズ等)に基づいて、パターンマッチングにより、動体(例えば、人や車)を検出してもよい。 The method by which the first analysis unit 30 detects a moving object in the distance image may be any known method. The first analysis unit 30 may detect a moving object by, for example, taking a difference between the frame of interest and the previous frame. Further, the first analysis unit 30 detects a moving object (for example, a person or a car) by pattern matching based on, for example, the feature amount (for example, shape and size) of clusters of AF points in a distance image. You may.

又、第1解析部30が異なるフレーム間で各動体の同一性を判定する手法は、公知の任意の手法であってよい。第1解析部30は、例えば、注目フレームで検出された動体と前フレームで検出された動体との間の距離、両者の間のサイズの類似性、両者の間の形状の類似性、両者の間の色の類似性、及び、両者の間の移動速度の類似性等に基づいて、両者の間の関連度を算出し、両者の間の関連度が閾値以上の場合には、注目フレームで検出された動体と前フレームで検出された動体とを同一の動体と認識する。 Further, the method by which the first analysis unit 30 determines the identity of each moving object between different frames may be any known method. The first analysis unit 30 may, for example, determine the distance between the moving body detected in the frame of interest and the moving body detected in the previous frame, the size similarity between the two, the shape similarity between the two, and both. The degree of relevance between the two is calculated based on the similarity of the colors between the two and the similarity of the moving speed between the two, and if the degree of relevance between the two is equal to or greater than the threshold value, the frame of interest The detected moving body and the moving body detected in the previous frame are recognized as the same moving body.

但し、より好適には、第1解析部30(及び/又は第2解析部40)は、機械学習により学習済みの識別器モデルを用いて、画像(ここでは、距離画像)中から動体を検出したり、異なるフレーム間で動体の同一性を判定する。これにより、動体の見え方の変化に対する、動体検出のロバスト性を高めることが可能である。例えば、画像中から動体を検出する手法としては、畳み込みニュートラルネットワーク(Convolutional Neural Network:CNN)を用いるのが好適である。又、異なるフレーム間で各動体の同一性を判定する手法としては、例えば、隠れマルコフモデル(Hidden Markov Model:HMM)を用いるのが好適である。その際、識別器モデルに対しては、入力画像と正解値とが関連付けられて構成された学習データを用いた強化学習により、機械学習を実行すればよい。 However, more preferably, the first analysis unit 30 (and / or the second analysis unit 40) detects a moving object from the image (here, the distance image) by using the classifier model learned by machine learning. Or determine the identity of a moving object between different frames. This makes it possible to enhance the robustness of moving object detection against changes in the appearance of moving objects. For example, as a method for detecting a moving object in an image, it is preferable to use a convolutional neural network (CNN). Further, as a method for determining the identity of each moving object between different frames, for example, it is preferable to use a Hidden Markov Model (HMM). At that time, for the classifier model, machine learning may be executed by reinforcement learning using the learning data configured by associating the input image with the correct answer value.

第1解析データD1は、例えば、時系列に並んだ距離画像の各フレームにおける動体の位置(ここでは、三次元の座標位置)及び占有領域を示すデータである(図5Aを参照)。第1解析データD1は、例えば、動体毎に、IDと当該動体の位置及び占有領域の時間的変化に係る情報を含む。即ち、第1解析データD1は、各フレームに映る同一の動体には、一つのIDのみを付与して、当該動体を識別している。そして、監視対象領域内に複数の動体が存在する場合には、第1解析データD1は、複数の動体それぞれに各別のIDを付与して、当該動体の位置及び占有領域の時間的変化を関連付けて記録する。 The first analysis data D1 is, for example, data showing the position of a moving object (here, a three-dimensional coordinate position) and an occupied area in each frame of a distance image arranged in a time series (see FIG. 5A). The first analysis data D1 includes, for example, information relating to the ID, the position of the moving body, and the temporal change of the occupied area for each moving body. That is, the first analysis data D1 assigns only one ID to the same moving object reflected in each frame to identify the moving object. Then, when a plurality of moving objects exist in the monitored area, the first analysis data D1 assigns different IDs to each of the plurality of moving objects, and changes the position of the moving objects and the occupied area with time. Associate and record.

第2解析部40は、カメラ画像内に映る動体の位置及び占有領域を検出した解析データ(以下、「第2解析データ」と称する)を生成する。この際、第2解析部40は、時系列に並んだカメラ画像に基づいて、監視対象領域に存在する動体の位置をトラッキングし、その結果を第2解析データD2として出力する。 The second analysis unit 40 generates analysis data (hereinafter, referred to as “second analysis data”) that detects the position and occupied area of the moving object reflected in the camera image. At this time, the second analysis unit 40 tracks the position of the moving object existing in the monitored area based on the camera images arranged in time series, and outputs the result as the second analysis data D2.

第2解析部40がカメラ画像中から動体を検出する手法、及び異なるフレーム間で各動体を同定する手法は、第1解析部30と同様に、公知の任意の手法を用いることができる。尚、第2解析部40は、これらの処理の際に、第1解析部30と同様に、学習済みの識別器モデルを用いるのが望ましい。 As a method for the second analysis unit 40 to detect a moving object from the camera image and a method for identifying each moving object between different frames, any known method can be used as in the first analysis unit 30. It is desirable that the second analysis unit 40 uses a trained classifier model in the same process as the first analysis unit 30.

第2解析データD2は、例えば、時系列に並んだカメラ画像の各フレームにおける動体の位置(ここでは、二次元の座標位置)及び占有領域を示すデータである(図5Bを参照)。第2解析データD2には、第1解析データD1と同様に、動体毎に、IDと当該動体の位置及び占有領域の時間的変化とが関連付けて記録されている。 The second analysis data D2 is, for example, data indicating the position of a moving object (here, a two-dimensional coordinate position) and an occupied area in each frame of the camera images arranged in time series (see FIG. 5B). Similar to the first analysis data D1, the second analysis data D2 records the ID, the position of the moving body, and the temporal change of the occupied area in association with each moving body.

データ比較処理部50は、第1解析データD1と第2解析データD2とを時間軸を揃えて比較し、第1解析データD1と第2解析データD2とに基づいて、距離画像又はカメラ画像の画像端からはみ出るようにして映る動体の識別情報(即ち、ID)を補間又は補正した上で、監視対象領域に存在する動体の位置、占有領域及びIDを確定した確定データD3を出力する。 The data comparison processing unit 50 compares the first analysis data D1 and the second analysis data D2 with the time axis aligned, and based on the first analysis data D1 and the second analysis data D2, the distance image or the camera image After interpolating or correcting the identification information (that is, ID) of the moving object that appears so as to protrude from the edge of the image, the confirmed data D3 in which the position, occupied area, and ID of the moving object existing in the monitored area are determined is output.

まず、図6A及び図6Bを参照して、データ比較処理部50における、1フレーム分のデータ比較処理について、説明する。 First, with reference to FIGS. 6A and 6B, the data comparison process for one frame in the data comparison processing unit 50 will be described.

図6Aでは、距離画像において、動体M1の下方側の部位が下方側の画像端からはみ出し、当該動体M1の前部M1aと後部M1bとが分離して映った状態を示している。又、図6Aでは、距離画像内においては、動体M2の上方側の部位が上方側の画像端からはみ出し、当該動体M2の前部M2aと後部M2bとが分離して映った状態を示している。このような場合、第1解析部30は、動体M1の前部M1aと後部M1bとを別個の動体として認識し、又、動体M2の前部M2aと後部M2bとを別個の動体として認識してしまう。 FIG. 6A shows a state in which the lower portion of the moving body M1 protrudes from the lower image edge in the distance image, and the front portion M1a and the rear portion M1b of the moving body M1 are projected separately. Further, in FIG. 6A, in the distance image, the upper part of the moving body M2 protrudes from the upper side image edge, and the front part M2a and the rear part M2b of the moving body M2 are shown separately. .. In such a case, the first analysis unit 30 recognizes the front part M1a and the rear part M1b of the moving body M1 as separate moving bodies, and also recognizes the front part M2a and the rear part M2b of the moving body M2 as separate moving bodies. It ends up.

一方、図6Bでは、カメラ画像において、動体M1のすべての部位、及び動体M2のすべての部位が、画像内に映った状態を示している。このような場合、第2解析部40は、動体M1を一体的な一つの動体として認識し、同様に、動体M2を一体的な一つの動体として認識する。 On the other hand, in FIG. 6B, in the camera image, all the parts of the moving body M1 and all the parts of the moving body M2 are shown in the image. In such a case, the second analysis unit 40 recognizes the moving body M1 as one integrated moving body, and similarly recognizes the moving body M2 as one integrated moving body.

データ比較処理部50は、かかる観点から、距離画像から検出された動体の位置及び占有領域と、当該距離画像と同一時刻に生成されたカメラ画像から検出された動体の位置及び占有領域とを比較して、距離画像又はカメラ画像の一方の画像端からはみ出るようにして映る動体の識別情報を補間又は補正する。 From this point of view, the data comparison processing unit 50 compares the position and occupied area of the moving object detected from the distance image with the position and occupied area of the moving object detected from the camera image generated at the same time as the distance image. Then, the identification information of the moving object that is projected so as to protrude from one image edge of the distance image or the camera image is interpolated or corrected.

具体的には、データ比較処理部50は、カメラ画像又は距離画像の一方から検出された一つの動体の占有領域内に、カメラ画像又は距離画像の他方から検出された動体が複数存在するか否かを判定し、一方から検出された一つの動体の占有領域内に、他方から検出された動体が複数存在する場合、他方から検出された複数の動体を一体的な一つの動体(即ち、単一の動体)と識別する。 Specifically, the data comparison processing unit 50 determines whether or not there are a plurality of moving objects detected from the other of the camera image or the distance image in the occupied area of one moving object detected from one of the camera image or the distance image. If there are a plurality of moving objects detected from the other within the occupied area of one moving object detected from one of them, the plurality of moving objects detected from the other are integrated into one moving body (that is, simply). Identify as one moving object).

図6A、図6Bの例では、カメラ画像から検出された動体M1の占有領域内に、距離画像から検出された動体M1aと動体M1bとが含まれているため、データ比較処理部50は、距離画像から検出された動体M1aと動体M1bとを同一の動体であると認識する。又、同様に、カメラ画像から検出された動体M2の占有領域内に、距離画像から検出された動体M2aと動体M2bとが含まれているため、データ比較処理部50は、距離画像から検出された動体M2aと動体M2bとを同一の動体であると認識する。 In the examples of FIGS. 6A and 6B, since the moving body M1a and the moving body M1b detected from the distance image are included in the occupied area of the moving body M1 detected from the camera image, the data comparison processing unit 50 performs the distance. The moving body M1a and the moving body M1b detected from the image are recognized as the same moving body. Similarly, since the moving body M2a and the moving body M2b detected from the distance image are included in the occupied area of the moving body M2 detected from the camera image, the data comparison processing unit 50 is detected from the distance image. The moving body M2a and the moving body M2b are recognized as the same moving body.

そして、データ比較処理部50は、この識別結果(例えば、距離画像内で検出された動体の位置及び占有領域と、カメラ画像内で検出された動体の位置及び占有領域とを関連付けたデータ)を、確定データD3として出力する。このように、データ比較処理部50は、より広角な視野を有するカメラ300で生成されたカメラ画像を利用して、距離画像からはみ出して映る動体の全体領域を把握する。これによって、距離画像及び/又はカメラ画像に映る動体の数、位置及び占有領域を、正確に認識することを可能とする。 Then, the data comparison processing unit 50 obtains this identification result (for example, data relating the position and occupied area of the moving body detected in the distance image and the position and occupied area of the moving body detected in the camera image). , Output as finalized data D3. In this way, the data comparison processing unit 50 uses the camera image generated by the camera 300 having a wider field of view to grasp the entire area of the moving object that is projected out of the distance image. This makes it possible to accurately recognize the number, position and occupied area of moving objects reflected in the distance image and / or the camera image.

尚、データ比較処理部50にて当該処理を実行し得るように、距離画像が示す座標位置(即ち、第1解析データD1が示す座標位置)とカメラ画像が示す座標位置(即ち、第2解析データD2が示す座標位置)との対応関係を示すデータを、予め画像処理装置100のROM102等に記憶しておくのが望ましい。 The coordinate position indicated by the distance image (that is, the coordinate position indicated by the first analysis data D1) and the coordinate position indicated by the camera image (that is, the second analysis) so that the data comparison processing unit 50 can execute the process. It is desirable to store in advance data indicating the correspondence with the coordinate position indicated by the data D2 in the ROM 102 or the like of the image processing apparatus 100.

データ比較処理部50は、このようにして、第1解析データD1と第2解析データD2との比較処理を行い、1フレーム分の確定データD3を生成する。そして、データ比較処理部50は、第1解析データD1及び第2解析データD2の各フレームについて、上記と同様の処理を行い、監視対象領域内に存在する動体の位置及び占有領域を、IDと関連付けた時系列な情報を、確定データD3として生成する。 In this way, the data comparison processing unit 50 performs comparison processing between the first analysis data D1 and the second analysis data D2, and generates final data D3 for one frame. Then, the data comparison processing unit 50 performs the same processing as above for each frame of the first analysis data D1 and the second analysis data D2, and sets the position and occupied area of the moving body existing in the monitored area as an ID. The associated time-series information is generated as definite data D3.

データ比較処理部50が生成する確定データD3のデータ構成は、任意である。確定データD3は、例えば、第1解析データD1及び第2解析データD2と共に、距離画像又はカメラ画像の画像端からはみ出るようにして映る動体の識別情報を補間したデータを付帯させたものであってもよい。又、確定データD3は、例えば、第1解析データD1及び第2解析データD2の一方のIDを、上記した比較処理にて補正したデータであってもよい。 The data structure of the finalized data D3 generated by the data comparison processing unit 50 is arbitrary. The definite data D3 is, for example, attached with the first analysis data D1 and the second analysis data D2, and data obtained by interpolating the identification information of the moving object that is projected so as to protrude from the image edge of the distance image or the camera image. May be good. Further, the definite data D3 may be, for example, data obtained by correcting the ID of one of the first analysis data D1 and the second analysis data D2 by the above-mentioned comparison process.

データ出力部60は、確定データD3に基づいて、監視対象領域内に存在する動体の位置及び占有領域を特定する表示画像を生成し、当該表示画像をディスプレイ(図示せず)に表示させる。 The data output unit 60 generates a display image that specifies the position and the occupied area of the moving object existing in the monitored area based on the confirmed data D3, and displays the displayed image on a display (not shown).

図7は、データ出力部60が生成する表示画像の一例を示す図である。尚、図7に示す表示画像は、距離画像上に、2つの動体M1、M2それぞれの位置及び占有領域をマークにより表したものである。 FIG. 7 is a diagram showing an example of a display image generated by the data output unit 60. The display image shown in FIG. 7 is a distance image in which the positions and occupied areas of the two moving objects M1 and M2 are represented by marks.

表示画像内では、動体M1、M2それぞれの位置及び占有領域は、実線で囲むようにマークされている。又、表示画像内では、一つの動体M1の部位M1a及びM1bそれぞれの位置及び占有領域は、動体M1の占有領域を示す実線の中で、点線で囲むようにマークされている。又、表示画像内では、他の動体M2の部位M2a及びM2bそれぞれの位置及び占有領域が、動体M2の占有領域を示す実線の中で、点線で囲むようにマークされている。 In the displayed image, the positions and occupied areas of the moving objects M1 and M2 are marked so as to be surrounded by solid lines. Further, in the displayed image, the positions and occupied areas of the parts M1a and M1b of one moving body M1 are marked so as to be surrounded by a dotted line in the solid line indicating the occupied area of the moving body M1. Further, in the displayed image, the positions and occupied areas of the parts M2a and M2b of the other moving body M2 are marked so as to be surrounded by a dotted line in the solid line indicating the occupied area of the moving body M2.

図7中では、動体M2は、当該動体M2の上端側の部位が距離画像の画像端からはみ出すように、画像内に映っているが、当該動体M2の位置及び占有領域は、確定データD3上では、カメラ画像から検出された動体M2の位置及び占有領域により、データ補間されている。 In FIG. 7, the moving body M2 is shown in the image so that the upper end side portion of the moving body M2 protrudes from the image edge of the distance image, but the position and the occupied area of the moving body M2 are on the definite data D3. In, the data is interpolated by the position and the occupied area of the moving body M2 detected from the camera image.

このようにして、ユーザは、表示画像から動体M1、M2それぞれの数や位置、及び占有領域を正確に把握することができる。そして、これによって、ユーザは、動体M1、M2それぞれの姿勢を推定したり、動体M1、M2それぞれの行動を予測したりすることができる。 In this way, the user can accurately grasp the number and position of each of the moving objects M1 and M2 and the occupied area from the displayed image. As a result, the user can estimate the postures of the moving objects M1 and M2 and predict the behaviors of the moving objects M1 and M2, respectively.

[画像処理装置の動作フロー]
次に、図8、図9A、図9B、図9Cを参照して、本実施形態に係る画像処理装置100の動作の一例について説明する。
[Operation flow of image processing device]
Next, an example of the operation of the image processing device 100 according to the present embodiment will be described with reference to FIGS. 8, 9A, 9B, and 9C.

図8は、本実施形態に係る画像処理装置100(データ比較処理部50)が第1解析データD1と第2解析データD2とを比較する処理を示すフローチャートである。図8に示すフローチャートは、例えば、画像処理装置100がコンピュータプログラムに従って、所定間隔(例えば、100ms間隔)で実行するものである。 FIG. 8 is a flowchart showing a process in which the image processing apparatus 100 (data comparison processing unit 50) according to the present embodiment compares the first analysis data D1 with the second analysis data D2. In the flowchart shown in FIG. 8, for example, the image processing apparatus 100 executes the image processing device 100 at predetermined intervals (for example, 100 ms intervals) according to a computer program.

図9A、図9B、図9Cは、図8のフローチャートの処理を模式的に説明する図である。 9A, 9B, and 9C are diagrams schematically illustrating the processing of the flowchart of FIG. 8.

ステップS1〜S4は、第1解析データD1と第2解析データD2とを比較する処理を行うための前処理工程である。この前処理工程では、まず、画像処理装置100は、時系列の距離画像に基づいて、第1解析データD1を生成する(ステップS1)。次に、画像処理装置100は、時系列のカメラ画像に基づいて、第2解析データD2を生成する(ステップS2)。次に、画像処理装置100は、第1解析データD1と第2解析データD2とを比較する解析対象時刻(例えば、時刻T=8:00:00)を設定する(ステップS3)。次に、画像処理装置100は、解析対象の間隔(例えば、時間間隔d=1秒)を設定する(ステップS4)。 Steps S1 to S4 are preprocessing steps for performing a process of comparing the first analysis data D1 and the second analysis data D2. In this preprocessing step, first, the image processing apparatus 100 generates the first analysis data D1 based on the time-series distance image (step S1). Next, the image processing device 100 generates the second analysis data D2 based on the time-series camera images (step S2). Next, the image processing apparatus 100 sets an analysis target time (for example, time T = 8:00:00) for comparing the first analysis data D1 and the second analysis data D2 (step S3). Next, the image processing apparatus 100 sets the interval to be analyzed (for example, the time interval d = 1 second) (step S4).

次に、画像処理装置100は、第1解析データD1(ID、動体の位置、及び動体の占有領域を示すデータ)のうち、時刻Tのフレームのデータを、配列形式の記憶部である第1配列に設定する(図9Aを参照)(ステップS5)。次に、画像処理装置100は、時刻Tの第2解析データD2(ID、動体の位置、及び動体の占有領域を示すデータ)のうち、時刻Tのフレームのデータを、配列形式の記憶部である第2配列に記憶する(図9Aを参照)(ステップS6)。次に、画像処理装置100は、配列形式の記憶部である補間データ配列を作成(又は初期化)する(図9Aを参照)(ステップS7)。 Next, the image processing device 100 stores the data of the frame at time T in the first analysis data D1 (data indicating the ID, the position of the moving body, and the occupied area of the moving body) in an array format. Set to an array (see FIG. 9A) (step S5). Next, the image processing device 100 stores the data of the frame at time T in the storage unit in the array format among the second analysis data D2 (data indicating the ID, the position of the moving body, and the occupied area of the moving body) at time T. Store in a second sequence (see FIG. 9A) (step S6). Next, the image processing apparatus 100 creates (or initializes) an interpolated data array which is an array format storage unit (see FIG. 9A) (step S7).

次に、画像処理装置100は、第2解析データD2中の読み出し対象の変数n(ここでは、第2解析データD2中のIDの要素を表す)を、まず、n=0に設定し(ステップS8)、ステップS8a〜S8bまで、変数nを順番にインクリメントしていくループ処理を実行する。次に、画像処理装置100は、第1解析データD1中の読み出し対象の変数i(ここでは、第1解析データD1中のIDの要素を表す)を、まず、i=0に設定し(ステップS9)、ステップS9a〜S9bまで、変数iを順番にインクリメントしていくループ処理を実行する。 Next, the image processing apparatus 100 first sets the variable n to be read in the second analysis data D2 (here, the element of the ID in the second analysis data D2) to n = 0 (step). S8), from steps S8a to S8b, a loop process of incrementing the variable n in order is executed. Next, the image processing apparatus 100 first sets the variable i to be read in the first analysis data D1 (here, the element of the ID in the first analysis data D1) to i = 0 (step). S9), from steps S9a to S9b, a loop process of incrementing the variable i in order is executed.

このステップS9a〜S9bのループ処理内では、画像処理装置100は、第2解析データD2中の動体[n]の占有領域内に、第1解析データD1中の動体[i]の占有領域が閾値(例えば、80%)以上含まれるか否かを判定する(ステップS10)。そして、画像処理装置100は、第2解析データD2中の動体[n]の占有領域内に、第1解析データD1中の動体[i]の占有領域が閾値(例えば、80%)以上含まれる場合には(S10:Yes)、補間データ配列に、第2解析データD2中の動体[n]と第1解析データD1中の動体[i]とを関連付けて記憶した上で(ステップS11)(図9Bを参照)、変数iをインクリメントして(i←i+1)、再度、ステップS10の判定処理を実行する。一方、第2解析データD2中の動体[n]の占有領域内に、第1解析データD1中の動体[i]の占有領域が閾値(例えば、80%)以上含まれない場合には(S10:No)、画像処理装置100は、特に処理を実行せず、変数iをインクリメントして(i←i+1)、再度、ステップS10の判定処理を実行する。 In the loop processing of steps S9a to S9b, the image processing apparatus 100 has a threshold value of the occupied area of the moving body [i] in the first analysis data D1 within the occupied area of the moving body [n] in the second analysis data D2. (For example, 80%) or more is determined (step S10). Then, in the image processing apparatus 100, the occupied area of the moving body [i] in the first analysis data D1 is included in the occupied area of the moving body [n] in the second analysis data D2 by a threshold value (for example, 80%) or more. In the case (S10: Yes), after associating and storing the moving object [n] in the second analysis data D2 and the moving object [i] in the first analysis data D1 in the interpolated data array (step S11) (step S11). (See FIG. 9B), the variable i is incremented (i ← i + 1), and the determination process of step S10 is executed again. On the other hand, when the occupied area of the moving body [i] in the first analysis data D2 is not included in the occupied area of the moving body [n] in the second analysis data D2 by a threshold value (for example, 80%) or more (S10). : No), the image processing apparatus 100 does not execute any particular process, increments the variable i (i ← i + 1), and executes the determination process of step S10 again.

変数iに係るすべて要素について、ステップS9a〜S9bの処理が終了した後、同様に、ステップS8a〜S8bのループ処理に従って、変数nを順番にインクリメントし、補間データ配列に、第2解析データD2中の動体[n]と第1解析データD1中の動体[i]とを関連付けて記憶していく(図9Cを参照)。そして、画像処理装置100は、すべての第2解析データD2中の動体[n]と第1解析データD1中の動体[i]との関係について判定する。 After the processing of steps S9a to S9b is completed for all the elements related to the variable i, the variable n is sequentially incremented in order according to the loop processing of steps S8a to S8b, and the interpolated data array is displayed in the second analysis data D2. The moving body [n] of No. 1 and the moving body [i] in the first analysis data D1 are associated and stored (see FIG. 9C). Then, the image processing apparatus 100 determines the relationship between the moving body [n] in all the second analysis data D2 and the moving body [i] in the first analysis data D1.

これにより、第2解析データD2の各動体と、第1解析データD1の各動体との対応関係が特定される。図9B、図9Cの例では、距離画像から生成された各動体M1a、M1b、M2a、M2bと、カメラ画像から生成された各動体M1、M2との対応関係が特定され、第1解析データD1の動体M1a及び動体M1bは、第2解析データD2の動体M1と同一の動体であり、第1解析データD1の動体M2a及び動体M2bは、第2解析データD2の動体M2と同一の動体であることが、補間データ配列に記憶されている。 Thereby, the correspondence relationship between each moving body of the second analysis data D2 and each moving body of the first analysis data D1 is specified. In the examples of FIGS. 9B and 9C, the correspondence between the moving objects M1a, M1b, M2a, and M2b generated from the distance image and the moving objects M1 and M2 generated from the camera image is specified, and the first analysis data D1 The moving body M1a and the moving body M1b are the same moving bodies as the moving body M1 of the second analysis data D2, and the moving body M2a and the moving body M2b of the first analysis data D1 are the same moving bodies as the moving body M2 of the second analysis data D2. Is stored in the interpolated data array.

次に、画像処理装置100は、すべての時刻のフレームについて、第1解析データD1と第2解析データD2との間の対応関係の判定処理が実行されたか否かを判定し(ステップS12)、すべての時刻のフレームについて、第1解析データD1と第2解析データD2との間の対応関係の判定処理が実行されていない場合(S12:Yes)、時刻を進めて(T←T+d)(ステップS13)、ステップS5〜S12の処理を同様に実行する。そして、すべての時刻のフレームについて、第1解析データD1と第2解析データD2との間の対応関係の判定処理が実行された場合(S12:No)、図8のフローチャートの処理を終了する。 Next, the image processing device 100 determines whether or not the determination processing of the correspondence between the first analysis data D1 and the second analysis data D2 has been executed for all the time frames (step S12). When the determination process of the correspondence between the first analysis data D1 and the second analysis data D2 is not executed for all time frames (S12: Yes), the time is advanced (T ← T + d) (step). S13), the processes of steps S5 to S12 are executed in the same manner. Then, when the determination processing of the correspondence relationship between the first analysis data D1 and the second analysis data D2 is executed for all the time frames (S12: No), the processing of the flowchart of FIG. 8 is terminated.

[効果]
以上のように、本実施形態に係る画像処理装置100は、データ比較部50にて、第1解析データD1と第2解析データD2とに基づいて、第1画像(例えば、距離画像)又は第2画像(例えば、カメラ画像)の画像端からはみ出るようにして映る動体の識別情報(ID)を補間又は補正して、動体の位置及び占有領域を確定した確定データD3を生成する。
[effect]
As described above, in the image processing apparatus 100 according to the present embodiment, the data comparison unit 50 determines the first image (for example, a distance image) or the first image based on the first analysis data D1 and the second analysis data D2. 2 The identification information (ID) of the moving object that is projected so as to protrude from the image edge of the image (for example, a camera image) is interpolated or corrected to generate definite data D3 in which the position and the occupied area of the moving object are determined.

従って、本実施形態に係る画像処理装置100によれば、第1画像(例えば、距離画像)又は第2画像(例えば、カメラ画像)から、はみ出るようにして映る動体を正確に識別することが可能である。 Therefore, according to the image processing apparatus 100 according to the present embodiment, it is possible to accurately identify a moving object that is projected so as to protrude from the first image (for example, a distance image) or the second image (for example, a camera image). Is.

これによって、監視対象領域内に存在する動体の正確な数と位置を認識することが可能となる。加えて、これによって、監視対象領域内に存在する動体の姿勢をより正確に把握することも可能となるため、行動解析の精度向上にも資する。 This makes it possible to recognize the exact number and position of moving objects existing in the monitored area. In addition, this makes it possible to more accurately grasp the posture of a moving object existing in the monitored area, which also contributes to improving the accuracy of behavior analysis.

(第2の実施形態)
次に、図10を参照して、第2の実施形態に係る画像処理装置100について説明する。図10は、第2の実施形態に係る画像処理装置100の構成を示す図である。
(Second Embodiment)
Next, the image processing apparatus 100 according to the second embodiment will be described with reference to FIG. FIG. 10 is a diagram showing the configuration of the image processing apparatus 100 according to the second embodiment.

本実施形態に係る画像処理装置100は、レーザーレーダー200に内蔵されている点で、第1の実施形態と相違する。そして、画像処理装置100の第1画像取得部10は、レーザーレーダー200の距離画像生成部210(即ち、距離画像を生成する撮像部)から直接画像データを取得する。 The image processing device 100 according to the present embodiment is different from the first embodiment in that it is built in the laser radar 200. Then, the first image acquisition unit 10 of the image processing device 100 acquires image data directly from the distance image generation unit 210 (that is, the image pickup unit that generates the distance image) of the laser radar 200.

本実施形態に係る画像処理装置100によれば、レーザーレーダー200及びカメラ300以外の別体のコンピュータを用意する必要性をなくすことが可能である。 According to the image processing apparatus 100 according to the present embodiment, it is possible to eliminate the need to prepare a separate computer other than the laser radar 200 and the camera 300.

(第3の実施形態)
次に、図11を参照して、第3の実施形態に係る画像処理装置100について説明する。図11は、第3の実施形態に係る画像処理装置100の構成を示す図である。
(Third Embodiment)
Next, the image processing apparatus 100 according to the third embodiment will be described with reference to FIG. FIG. 11 is a diagram showing a configuration of an image processing device 100 according to a third embodiment.

本実施形態に係る画像処理装置100は、上記実施形態のカメラ300(以下、「可視光カメラ」と称する)に代えて、サーマルカメラ400からカメラ画像を取得する構成としている点で、第1の実施形態と相違する。 The first image processing device 100 according to the present embodiment is configured to acquire a camera image from a thermal camera 400 instead of the camera 300 of the above embodiment (hereinafter, referred to as a "visible light camera"). Different from the embodiment.

可視光カメラ300により生成されたカメラ画像は、色情報を含むため、高い動体識別精度を実現することができる。一方、監視対象領域が霧に覆われている状況下や、夜間においては、カメラ画像を用いた動体識別精度は低下する。 Since the camera image generated by the visible light camera 300 includes color information, high moving object identification accuracy can be realized. On the other hand, in a situation where the monitored area is covered with fog or at night, the accuracy of moving object identification using the camera image is lowered.

この点、サーマルカメラ400は、動体から放射される赤外光に基づいてカメラ画像を生成するため、夜間等の状況下においても、高い動体識別精度を実現することができる。そこで、本実施形態に係る画像処理装置100(第2解析部40)は、サーマルカメラ400により生成されたカメラ画像を用いて、第2解析データD2を生成する。そして、本実施形態に係る画像処理装置100(データ比較処理部50)は、当該第2解析データD2を用いて、第1解析データD1のIDの誤りを補正する。 In this respect, since the thermal camera 400 generates a camera image based on infrared light radiated from a moving object, high moving object identification accuracy can be realized even in a situation such as at night. Therefore, the image processing device 100 (second analysis unit 40) according to the present embodiment generates the second analysis data D2 by using the camera image generated by the thermal camera 400. Then, the image processing apparatus 100 (data comparison processing unit 50) according to the present embodiment uses the second analysis data D2 to correct an error in the ID of the first analysis data D1.

以上のように、本実施形態に係る画像処理装置100によれば、監視対象領域が霧に覆われている状況下や、夜間においても、高精度に動体を認識することができる。 As described above, according to the image processing apparatus 100 according to the present embodiment, it is possible to recognize a moving object with high accuracy even in a situation where the monitored area is covered with fog or at night.

尚、画像処理装置100は、可視光カメラ300により生成されたカメラ画像、及びサーマルカメラ400により生成されたカメラ画像の両方を用いてもよい。そして、第2解析データD2を生成する際には、可視光カメラ300により生成されたカメラ画像、及びサーマルカメラ400により生成されたカメラ画像の両方を用いてもよいし、選択的に使用するカメラ画像を切り替えるようにしてもよい。 The image processing device 100 may use both the camera image generated by the visible light camera 300 and the camera image generated by the thermal camera 400. Then, when generating the second analysis data D2, both the camera image generated by the visible light camera 300 and the camera image generated by the thermal camera 400 may be used, or a camera to be selectively used. You may switch the image.

(その他の実施形態)
本発明は、上記実施形態に限らず、種々に変形態様が考えられる。
(Other embodiments)
The present invention is not limited to the above embodiment, and various modifications can be considered.

上記実施形態では、画像処理装置100の構成の一例として、第1画像取得部10、第2画像取得部20、第1解析部30、第2解析部40、データ比較処理部50、及び、データ出力部60の機能が一のコンピュータによって実現されるものとして記載したが、複数のコンピュータによって実現されてもよいのは勿論である。又、当該コンピュータに読み出されるプログラムやデータも、複数のコンピュータに分散して格納されてもよい。 In the above embodiment, as an example of the configuration of the image processing device 100, the first image acquisition unit 10, the second image acquisition unit 20, the first analysis unit 30, the second analysis unit 40, the data comparison processing unit 50, and the data. Although the function of the output unit 60 is described as being realized by one computer, it is needless to say that the function may be realized by a plurality of computers. Further, the programs and data read by the computer may also be distributed and stored in a plurality of computers.

以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、請求の範囲を限定するものではない。請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。 Although specific examples of the present invention have been described in detail above, these are merely examples and do not limit the scope of claims. The techniques described in the claims include various modifications and modifications of the specific examples illustrated above.

本開示に係る画像処理装置によれば、画像端に映る動体の認識精度を向上することが可能である。 According to the image processing apparatus according to the present disclosure, it is possible to improve the recognition accuracy of a moving object reflected on the edge of an image.

U 監視システム
100 画像処理装置
101 CPU
102 ROM
103 RAM
104 外部記憶装置
105 通信インタフェイス
10 第1画像取得部
20 第2画像取得部
30 第1解析部
40 第2解析部
50 データ比較処理部
60 データ出力部
200 レーザーレーダー
210 距離画像生成部
300 カメラ(可視光カメラ)
400 サーマルカメラ
D1 第1解析データ
D2 第2解析データ
D3 確定データ
U monitoring system 100 image processing device 101 CPU
102 ROM
103 RAM
104 External storage device 105 Communication interface 10 1st image acquisition unit 20 2nd image acquisition unit 30 1st analysis unit 40 2nd analysis unit 50 Data comparison processing unit 60 Data output unit 200 Laser radar 210 Distance image generation unit 300 Camera ( Visible light camera)
400 Thermal camera D1 1st analysis data D2 2nd analysis data D3 Confirmed data

Claims (9)

第1領域を撮像する第1センサから第1画像に係る画像データを取得する第1画像取得部と、
前記第1領域と少なくとも一部が重複し、且つ、前記第1領域に含まれない領域を含む第2領域を撮像する第2センサから第2画像に係る画像データを取得する第2画像取得部と、
前記第1画像に係る画像データに基づいて、前記第1画像内に映る動体の位置及び占有領域を検出した第1解析データを生成する第1解析部と、
前記第2画像に係る画像データに基づいて、前記第2画像内に映る動体の位置及び占有領域を検出した第2解析データを生成する第2解析部と、
前記第1解析データと前記第2解析データとに基づいて、前記第1画像又は前記第2画像の画像端からはみ出るようにして映る動体の識別情報を補間又は補正するデータ比較処理部と、
を備える画像処理装置。
A first image acquisition unit that acquires image data related to the first image from the first sensor that captures the first region, and
A second image acquisition unit that acquires image data related to a second image from a second sensor that images a second region that includes a region that overlaps at least a part of the first region and is not included in the first region. When,
A first analysis unit that generates first analysis data that detects the position and occupied area of a moving object reflected in the first image based on the image data related to the first image.
A second analysis unit that generates second analysis data that detects the position and occupied area of a moving object reflected in the second image based on the image data related to the second image.
A data comparison processing unit that interpolates or corrects identification information of a moving object that appears so as to protrude from the image edge of the first image or the second image based on the first analysis data and the second analysis data.
An image processing device comprising.
前記データ比較処理部は、前記第1画像内で検出された一つの動体の占有領域内に、前記第2画像内で検出された動体が複数存在する場合、前記第2画像内で検出された複数の動体を単一の動体と識別する、
請求項1に記載の画像処理装置。
When a plurality of moving objects detected in the second image are present in the occupied area of one moving object detected in the first image, the data comparison processing unit is detected in the second image. Identifying multiple moving objects as a single moving object,
The image processing apparatus according to claim 1.
前記データ比較処理部は、前記第1解析データ又は前記第2解析データの少なくともいずれか一方の識別情報を補間又は補正したデータを、確定データとして出力する、
請求項1又は2に記載の画像処理装置。
The data comparison processing unit outputs data obtained by interpolating or correcting at least one of the identification information of the first analysis data or the second analysis data as definite data.
The image processing apparatus according to claim 1 or 2.
前記第1センサは、レーザーレーダーであり、
前記第2センサは、可視光カメラである、
請求項1乃至3のいずれか一項に記載の画像処理装置。
The first sensor is a laser radar.
The second sensor is a visible light camera.
The image processing apparatus according to any one of claims 1 to 3.
前記第1センサは、レーザーレーダーであり、
前記第2センサは、サーマルカメラである、
請求項1乃至3のいずれか一項に記載の画像処理装置。
The first sensor is a laser radar.
The second sensor is a thermal camera.
The image processing apparatus according to any one of claims 1 to 3.
前記第1センサは、レーザーレーダーであり、
前記第2センサは、可視光カメラ及びサーマルカメラである、
請求項1乃至3のいずれか一項に記載の画像処理装置。
The first sensor is a laser radar.
The second sensor is a visible light camera and a thermal camera.
The image processing apparatus according to any one of claims 1 to 3.
前記第1解析部は、時系列に並ぶ前記第1画像に係る画像データに基づいて、前記第1画像に映る動体の位置及び占有領域を検出した前記第1解析データを生成し、
前記第2解析部は、時系列に並ぶ前記第2画像に係る画像データに基づいて、前記第2画像に映る動体の位置及び占有領域を検出した前記第2解析データを生成し、
前記データ比較処理部は、前記第1解析データと前記第2解析データとを時間軸を揃えて比較する、
請求項1乃至6のいずれか一項に記載の画像処理装置。
The first analysis unit generates the first analysis data in which the position and the occupied area of the moving object appearing in the first image are detected based on the image data related to the first image arranged in time series.
The second analysis unit generates the second analysis data that detects the position and the occupied area of the moving object reflected in the second image based on the image data related to the second image arranged in time series.
The data comparison processing unit compares the first analysis data and the second analysis data with the time axis aligned.
The image processing apparatus according to any one of claims 1 to 6.
前記第1解析部及び/又は前記第2解析部は、機械学習により学習済みの識別器モデルを用いて、画像内に映る動体の位置及び占有領域を検出する、
請求項1乃至7のいずれか一項に記載の画像処理装置。
The first analysis unit and / or the second analysis unit detects the position and occupied area of the moving object reflected in the image by using the classifier model learned by machine learning.
The image processing apparatus according to any one of claims 1 to 7.
第1領域を撮像する第1センサから第1画像に係る画像データを取得し、
前記第1領域と少なくとも一部が重複し、且つ、前記第1領域に含まれない領域を含む第2領域を撮像する第2センサから第2画像に係る画像データを取得し、
前記第1画像に係る画像データに基づいて、前記第1画像内に映る動体の位置及び占有領域を検出した第1解析データを生成し、
前記第2画像に係る画像データに基づいて、前記第2画像内に映る動体の位置及び占有領域を検出した第2解析データを生成し、
前記第1解析データと前記第2解析データとに基づいて、前記第1画像又は前記第2画像の画像端からはみ出るようにして映る動体の識別情報を補間又は補正する、
画像処理方法。
Image data related to the first image is acquired from the first sensor that captures the first region, and
Image data related to the second image is acquired from the second sensor that images the second region including the region that overlaps at least a part of the first region and is not included in the first region.
Based on the image data related to the first image, the first analysis data in which the position and the occupied area of the moving object reflected in the first image are detected is generated.
Based on the image data related to the second image, the second analysis data in which the position and the occupied area of the moving object reflected in the second image are detected is generated.
Based on the first analysis data and the second analysis data, the identification information of the moving object that appears so as to protrude from the image edge of the first image or the second image is interpolated or corrected.
Image processing method.
JP2019032963A 2019-02-26 2019-02-26 Image processing device and image processing method Active JP7124760B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019032963A JP7124760B2 (en) 2019-02-26 2019-02-26 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019032963A JP7124760B2 (en) 2019-02-26 2019-02-26 Image processing device and image processing method

Publications (2)

Publication Number Publication Date
JP2020140225A true JP2020140225A (en) 2020-09-03
JP7124760B2 JP7124760B2 (en) 2022-08-24

Family

ID=72264861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019032963A Active JP7124760B2 (en) 2019-02-26 2019-02-26 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP7124760B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002099907A (en) * 2000-09-22 2002-04-05 Mazda Motor Corp Object recognizing apparatus
JP2005084035A (en) * 2003-09-11 2005-03-31 Toyota Motor Corp Object detecting device
US20110211754A1 (en) * 2010-03-01 2011-09-01 Primesense Ltd. Tracking body parts by combined color image and depth processing
JP2015195018A (en) * 2014-03-18 2015-11-05 株式会社リコー Image processor, image processing method, operation support system, and program
JP2016011061A (en) * 2014-06-30 2016-01-21 本田技研工業株式会社 Movement support device
JP2017182696A (en) * 2016-03-31 2017-10-05 株式会社デンソー Object recognition device and object recognition method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002099907A (en) * 2000-09-22 2002-04-05 Mazda Motor Corp Object recognizing apparatus
JP2005084035A (en) * 2003-09-11 2005-03-31 Toyota Motor Corp Object detecting device
US20110211754A1 (en) * 2010-03-01 2011-09-01 Primesense Ltd. Tracking body parts by combined color image and depth processing
JP2015195018A (en) * 2014-03-18 2015-11-05 株式会社リコー Image processor, image processing method, operation support system, and program
JP2016011061A (en) * 2014-06-30 2016-01-21 本田技研工業株式会社 Movement support device
JP2017182696A (en) * 2016-03-31 2017-10-05 株式会社デンソー Object recognition device and object recognition method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ZHENG ZHANG, 外1名: ""Accurate pedestrian detection using RGB-D camera"", 2017 IEEE 9TH INTERNATIONAL CONFERENCE ON COMMUNICATION SOFTWARE AND NETWORKS (ICCSN), JPN6022028779, 2017, pages 1218 - 1222, XP033285697, ISSN: 0004823160, DOI: 10.1109/ICCSN.2017.8230304 *
栗田裕二, 外2名: ""車載画像認識ソフトウェア"", 映像情報インダストリアル, vol. 第50巻, 第8号, JPN6022028777, 1 August 2018 (2018-08-01), JP, pages 25 - 29, ISSN: 0004823159 *

Also Published As

Publication number Publication date
JP7124760B2 (en) 2022-08-24

Similar Documents

Publication Publication Date Title
US7756293B2 (en) Movement capture and analysis apparatus and method
JP5950296B2 (en) Person tracking attribute estimation device, person tracking attribute estimation method, program
JP4883517B2 (en) Three-dimensional measuring apparatus, three-dimensional measuring method, and three-dimensional measuring program
TWI419081B (en) Method and system for providing augmented reality based on marker tracing, and computer program product thereof
EP3644277A1 (en) Image processing system, image processing method, and program
US11138419B2 (en) Distance image processing device, distance image processing system, distance image processing method, and non-transitory computer readable recording medium
JP6897787B2 (en) Posture recognition system, image correction program and image correction method
US11461733B2 (en) Behavior analysis device, behavior analysis system, behavior analysis method, and program
JP2019148865A (en) Identification device, identification method, identification program and non-temporary tangible recording medium recording identification program
CN113567550B (en) Ground material detection method, device, electronic equipment, chip and storage medium
US10509513B2 (en) Systems and methods for user input device tracking in a spatial operating environment
JP2010157093A (en) Motion estimation device and program
JP2002366958A (en) Method and device for recognizing image
JP6288770B2 (en) Face detection method, face detection system, and face detection program
US11989928B2 (en) Image processing system
JP7375806B2 (en) Image processing device and image processing method
JP7124760B2 (en) Image processing device and image processing method
KR20150014342A (en) Apparatus and method for analyzing an image including event information
KR20090113746A (en) A method of robot localization using spatial semantics of objects
EP4310549A1 (en) Sensing system
JP7254262B2 (en) Work estimating device, work estimating method, and work estimating program
JP2019179289A (en) Processing device and program
JP7226553B2 (en) Information processing device, data generation method, and program
JP7300331B2 (en) Information processing device for machine learning, information processing method for machine learning, and information processing program for machine learning
JP7117878B2 (en) processor and program

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190708

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191016

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220725

R150 Certificate of patent or registration of utility model

Ref document number: 7124760

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150