JP2018132873A - Information processing apparatus - Google Patents

Information processing apparatus Download PDF

Info

Publication number
JP2018132873A
JP2018132873A JP2017024953A JP2017024953A JP2018132873A JP 2018132873 A JP2018132873 A JP 2018132873A JP 2017024953 A JP2017024953 A JP 2017024953A JP 2017024953 A JP2017024953 A JP 2017024953A JP 2018132873 A JP2018132873 A JP 2018132873A
Authority
JP
Japan
Prior art keywords
voting
area
unit
information processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017024953A
Other languages
Japanese (ja)
Other versions
JP6918509B2 (en
Inventor
映 酒井
Ei Sakai
映 酒井
村瀬 洋
Hiroshi Murase
洋 村瀬
大輔 出口
Daisuke Deguchi
大輔 出口
好輝 建部
Yoshiki Tatebe
好輝 建部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya University NUC
Denso Corp
Original Assignee
Nagoya University NUC
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya University NUC, Denso Corp filed Critical Nagoya University NUC
Priority to JP2017024953A priority Critical patent/JP6918509B2/en
Publication of JP2018132873A publication Critical patent/JP2018132873A/en
Application granted granted Critical
Publication of JP6918509B2 publication Critical patent/JP6918509B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve robustness in identifying an object.SOLUTION: A radar device 1 comprises an acquisition unit 41 and a generation unit 43. The acquisition unit 41 is configured to acquire one or more measuring points indicative of a position where an object exists, from an optical unit 11 for detecting the one or more measuring points. The generation unit 43 is configured to vote for a plurality of unit regions constituting a region where the measuring points exist, on the basis of each of the one or more measuring points acquired by the acquisition unit 41 and to generate voting information being information including at least respective voted values of the plurality of unit regions. The generation unit 43 is also configured to vote for a voting region including one or a plurality of unit regions set to each of the one or more measuring points.SELECTED DRAWING: Figure 1

Description

本開示は、物体の識別に用いることのできる情報処理装置に関する。   The present disclosure relates to an information processing apparatus that can be used to identify an object.

識別対象となる物体に関して取得された3次元の測定点群をダウンサンプリングする方法として、例えば、特許文献1にて用いられているように、空間を一定サイズの格子で区切り、各格子内に測定点が存在するか否かの2値割り当て、若しくは、測定点数を用いたスカラ値割り当てなどのボクセル表現を行う技術が知られている。   As a method of down-sampling a three-dimensional measurement point group acquired for an object to be identified, for example, as used in Patent Document 1, a space is divided by a grid of a certain size, and measurement is performed in each grid. Techniques for performing voxel expression such as binary assignment of whether or not a point exists or scalar value assignment using the number of measurement points are known.

特開2014−13432号公報JP 2014-13432 A

識別対象となる物体と、測定点を取得するための測定装置と、の間の距離が大きくなるにつれて、測定点の誤差は大きくなりやすい。測定点の誤差が大きくなるとボクセル表現の変動も大きくなり、物体識別のロバスト性の確保が困難になるという問題があった。   As the distance between the object to be identified and the measurement device for acquiring the measurement point increases, the error of the measurement point tends to increase. When the error of the measurement point increases, the variation of the voxel expression also increases, and there is a problem that it is difficult to ensure the robustness of object identification.

本開示は、物体の識別においてロバスト性の向上を図る技術を提供する。   The present disclosure provides a technique for improving robustness in object identification.

本開示の第1の態様は、取得部(41)と、生成部(43)と、を備える情報処理装置(12)である。取得部は、物体の存在する位置を示す1つ以上の測定点を検出する測定装置(11)から、上記1つ以上の測定点を取得するように構成されている。生成部は、1つ以上の測定点が存在する領域を構成する複数の単位領域に対して、上記取得部により取得された1つ以上の測定点それぞれに基づく投票を行い、少なくとも上記複数の単位領域それぞれへの投票値を含む情報である投票情報を生成するように構成されている。   A 1st aspect of this indication is an information processor (12) provided with an acquisition part (41) and a generating part (43). The acquisition unit is configured to acquire the one or more measurement points from the measurement device (11) that detects one or more measurement points indicating the position where the object exists. The generation unit performs voting based on each of the one or more measurement points acquired by the acquisition unit with respect to the plurality of unit regions constituting the region where the one or more measurement points exist, and at least the plurality of units Voting information that is information including a voting value for each region is generated.

また生成部は、上記1つ以上の測定点それぞれに設定される1つ又は複数の単位領域を含む投票領域に対して投票を行うように構成されている。
このような構成によれば、投票情報における測定点の誤差の影響を低減することができる。よって、投票情報を用いた物体の識別をロバスト性の高いものとすることができる。
The generating unit is configured to vote for a voting area including one or a plurality of unit areas set for each of the one or more measurement points.
According to such a configuration, it is possible to reduce the influence of measurement point errors in voting information. Therefore, the identification of the object using the voting information can be made highly robust.

本開示の第2の態様は、取得部(41)と、生成部(43)と、を備える情報処理装置(12)である。取得部は、物体の存在する位置を示す1つ以上の測定点を検出する測定装置(11)から、上記1つ以上の測定点を取得するように構成されている。生成部は、1つ以上の測定点が存在する領域を構成する複数の単位領域に対して、上記取得部により取得された1つ以上の測定点それぞれに基づく投票を行い、少なくとも上記複数の単位領域それぞれへの投票値を含む情報である投票情報を生成するように構成されている。   A 2nd mode of this indication is an information processor (12) provided with an acquisition part (41) and a generating part (43). The acquisition unit is configured to acquire the one or more measurement points from the measurement device (11) that detects one or more measurement points indicating the position where the object exists. The generation unit performs voting based on each of the one or more measurement points acquired by the acquisition unit with respect to the plurality of unit regions constituting the region where the one or more measurement points exist, and at least the plurality of units Voting information that is information including a voting value for each region is generated.

また生成部は、上記単位領域の大きさを変更可能に構成されている。
このような構成によれば、投票情報における測定点の誤差の影響を低減することができる。よって、投票情報を用いた物体の識別をロバスト性の高いものとすることができる。
The generation unit is configured to change the size of the unit area.
According to such a configuration, it is possible to reduce the influence of measurement point errors in voting information. Therefore, the identification of the object using the voting information can be made highly robust.

なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本開示の技術的範囲を限定するものではない。   Note that the reference numerals in parentheses described in this column and in the claims indicate the correspondence with the specific means described in the embodiment described later as one aspect, and the technical scope of the present disclosure It is not limited.

図1Aがレーダ装置の構成を示すブロック図であり、図1Bがレーダ制御部の機能ブロック図である。FIG. 1A is a block diagram illustrating a configuration of a radar apparatus, and FIG. 1B is a functional block diagram of a radar control unit. 発光部の照射態様を説明する図である。It is a figure explaining the irradiation aspect of a light emission part. 物体認識処理のフローチャートである。It is a flowchart of an object recognition process. 識別処理のフローチャートである。It is a flowchart of an identification process. 物体存在領域を説明する図である。It is a figure explaining an object presence area. 図6A〜図6Cのいずれも、投票領域に対して投票を行う場合の例を説明する図である。Each of FIGS. 6A to 6C is a diagram illustrating an example in the case of voting on a voting area. 図7A〜図7Cのいずれも、投票領域に対して投票を行う場合の例を説明する図である。Each of FIGS. 7A to 7C is a diagram illustrating an example in which voting is performed on a voting area. 図8A〜図8Cのいずれも、物体との距離に応じた投票領域の設定方法の例を説明する図である。Each of FIGS. 8A to 8C is a diagram illustrating an example of a voting area setting method according to a distance from an object. 図9A及び図9Bは、測定点との距離に応じて重み付けをされた投票の例であり、図9Cは、重み付けの設定方法の例を説明する図である。9A and 9B are examples of voting weighted according to the distance to the measurement point, and FIG. 9C is a diagram illustrating an example of a weighting setting method. 図10A及び図10Bは、反射強度に応じて重み付けをされた投票の例である。10A and 10B are examples of voting weighted according to the reflection intensity. 変形例の識別処理のフローチャートである。It is a flowchart of the identification process of a modification. 図12A及び図12Bは、反射強度に応じた投票領域の設定方法の例を説明する図である。12A and 12B are diagrams illustrating an example of a voting area setting method according to the reflection intensity. 図13A及び図13Bは、物体存在領域における測定点の位置に応じた投票領域の設定方法の例を説明する図である。13A and 13B are diagrams for explaining an example of a voting area setting method according to the position of the measurement point in the object existence area. 図14A及び図14Bは、ライン毎の2次元ボクセル表現の例を説明する図である。FIG. 14A and FIG. 14B are diagrams illustrating an example of two-dimensional voxel expression for each line. 変形例の識別処理のフローチャートである。It is a flowchart of the identification process of a modification. 図16A及び図16Bは、距離に応じた格子サイズの設定方法の例を説明する図である。16A and 16B are diagrams for explaining an example of a method for setting a lattice size according to a distance.

以下、図面を参照しながら、発明を実施するための形態を説明する。
[1.第1実施形態]
[1−1.構成]
図1に示すレーダ装置1は、車両に搭載して用いられる装置である。レーダ装置1は、光学ユニット11と、レーダ制御部12と、を備える。
Hereinafter, embodiments for carrying out the invention will be described with reference to the drawings.
[1. First Embodiment]
[1-1. Constitution]
A radar apparatus 1 shown in FIG. 1 is an apparatus used by being mounted on a vehicle. The radar apparatus 1 includes an optical unit 11 and a radar control unit 12.

光学ユニット11は、発光部21と受光部22とを備える。発光部21は、図2に示されるように、車両3の進行方向に向かって光を照射する。受光部22は、発光部21にて照射された光の反射光を受ける。この取得した反射光を解析することにより、車両3の外部に存在する物体の存在する位置を示す1つ以上の測定点を検出する。受光部22による測定点の検出は、所定のサンプリング周期にて実行される。   The optical unit 11 includes a light emitting unit 21 and a light receiving unit 22. The light emission part 21 irradiates light toward the advancing direction of the vehicle 3, as FIG. 2 shows. The light receiving unit 22 receives the reflected light of the light emitted from the light emitting unit 21. By analyzing the acquired reflected light, one or more measurement points indicating the position of an object existing outside the vehicle 3 are detected. The detection of the measurement points by the light receiving unit 22 is executed at a predetermined sampling period.

光学ユニット11としては、例えば、LIDARのようなレーザーレーダを用いることができる。光学ユニット11が、物体の存在する位置を測定する測定装置の一例である。
レーダ制御部12は、CPU31と、RAM、ROM、フラッシュメモリ等の半導体メモリ(以下、メモリ32)と、を有する周知のマイクロコンピュータを中心に構成される。レーダ制御部12の各種機能は、CPU31が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ32が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムの実行により、プログラムに対応する方法が実行される。なお、レーダ制御部12を構成するマイクロコンピュータの数は1つでも複数でもよい。
As the optical unit 11, for example, a laser radar such as LIDAR can be used. The optical unit 11 is an example of a measuring device that measures a position where an object exists.
The radar control unit 12 is mainly configured by a known microcomputer having a CPU 31 and a semiconductor memory (hereinafter, memory 32) such as a RAM, a ROM, and a flash memory. Various functions of the radar control unit 12 are realized by the CPU 31 executing a program stored in a non-transitional physical recording medium. In this example, the memory 32 corresponds to a non-transitional tangible recording medium that stores a program. Further, by executing this program, a method corresponding to the program is executed. Note that the number of microcomputers constituting the radar control unit 12 may be one or plural.

レーダ制御部12は、CPU31がプログラムを実行することで実現される機能の構成として、取得部41と、設定部42と、生成部43と、識別部44と、を備える。レーダ制御部12を構成するこれらの要素を実現する手法はソフトウェアに限るものではなく、その一部又は全部の要素について、一つあるいは複数のハードウェアを用いて実現してもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は多数の論理回路を含むデジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現してもよい。このレーダ制御部12が、情報処理装置に相当する。   The radar control unit 12 includes an acquisition unit 41, a setting unit 42, a generation unit 43, and an identification unit 44 as functions configured by the CPU 31 executing a program. The method of realizing these elements constituting the radar control unit 12 is not limited to software, and some or all of the elements may be realized using one or a plurality of hardware. For example, when the above function is realized by an electronic circuit that is hardware, the electronic circuit may be realized by a digital circuit including a large number of logic circuits, an analog circuit, or a combination thereof. The radar control unit 12 corresponds to an information processing device.

[1−2.処理]
[1−2−1.物体認識処理]
レーダ制御部12のCPU31が実行する物体認識処理について、図3のフローチャートを用いて説明する。
[1-2. processing]
[1-2-1. Object recognition processing]
Object recognition processing executed by the CPU 31 of the radar control unit 12 will be described with reference to the flowchart of FIG.

まず、S1では、CPU31は、上述したサンプリング周期に合わせて、光学ユニット11から複数の測定点を取得する。このS1の処理が、取得部41による処理である。
S2では、CPU31は、クラスタリングを実行する。ここでは、S1にて取得された複数の測定点を対象として、点間距離が所定の距離以下の測定点をクラスタリングし、1つ以上のクラスタ点群を生成する。このクラスタ点群を単位として、後述するS3の識別処理が実行される。なおクラスタリングの処理は、例えば特開2012−221456に示されるような既存の技術を用いることができる。
First, in S1, the CPU 31 acquires a plurality of measurement points from the optical unit 11 in accordance with the sampling cycle described above. The processing of S1 is processing by the acquisition unit 41.
In S2, the CPU 31 executes clustering. Here, with respect to the plurality of measurement points acquired in S1, the measurement points whose point-to-point distance is a predetermined distance or less are clustered to generate one or more cluster point groups. The identification process of S3 mentioned later is performed by making this cluster point group into a unit. For the clustering process, for example, an existing technique as disclosed in JP2012-212456 can be used.

S3では、CPU31は、識別処理を実行する。ここでは、クラスタ点群が存在する3次元空間を分割した複数の単位領域に対して、取得部41により取得された1つ以上の測定点それぞれに基づく投票を行い、少なくとも複数の単位領域それぞれへの投票値を含む情報であるボクセル表現を生成する。そして、取得したボクセル表現を用いて物体の識別を行う。以下、クラスタ点群からボクセル表現を生成することを、ボクセル化とも記載する。本実施形態においては、上述した単位領域は格子状に設定される。このS3の識別処理の詳細については後述する。ここでいう投票値とは、単位領域に投票された数と、各投票の重み付けと、を考慮した値である。投票に重み付けを行わない場合、各単位領域の投票数が投票値となる。なお上述したボクセル表現が、クラスタ点群をボクセル化した結果の特徴量であり、投票情報に相当する。このS3の後、図3の処理を終了する。   In S3, the CPU 31 executes identification processing. Here, a vote based on each of one or more measurement points acquired by the acquisition unit 41 is performed on a plurality of unit areas obtained by dividing the three-dimensional space in which the cluster point group exists, and at least to each of the plurality of unit areas. A voxel expression that is information including the vote value is generated. Then, the object is identified using the acquired voxel expression. Hereinafter, generating a voxel expression from a cluster point group is also referred to as voxelization. In the present embodiment, the unit areas described above are set in a lattice shape. Details of the identification processing in S3 will be described later. The vote value here is a value that takes into account the number of votes cast in the unit area and the weight of each vote. When weighting is not performed for voting, the number of votes in each unit area becomes a vote value. Note that the above-described voxel expression is a feature amount as a result of voxelizing a cluster point group and corresponds to voting information. After S3, the process of FIG. 3 is terminated.

[1−2−2.識別処理]
レーダ制御部12のCPU31が実行する識別処理について、図4のフローチャートを用いて説明する。
[1-2-2. Identification process]
The identification process executed by the CPU 31 of the radar control unit 12 will be described with reference to the flowchart of FIG.

S11では、まずCPU31は、格子設定を行う。ここでは、図5に示されるように、光学ユニット11により測定された1つ以上の測定点101に基づいて生成された1つのクラスタ点群111に対して、当該クラスタ点群111が内部に含まれる箱型の3次元空間である物体存在領域113を設定する。つまり、物体存在領域113は、1つ以上の測定点101が存在する領域である。   In S11, first, the CPU 31 performs lattice setting. Here, as shown in FIG. 5, the cluster point group 111 is included inside one cluster point group 111 generated based on one or more measurement points 101 measured by the optical unit 11. An object existence area 113 that is a box-shaped three-dimensional space is set. That is, the object presence area 113 is an area where one or more measurement points 101 exist.

上述した単位領域102は、物体存在領域113を格子状に分割したものである。換言すると、複数の単位領域102によって物体存在領域113が構成される。なお物体存在領域113に含まれる複数の単位領域102には、測定点101が存在する単位領域102と、測定点101が存在しない単位領域102と、が存在する。   The unit area 102 described above is obtained by dividing the object existence area 113 into a lattice shape. In other words, the object existence area 113 is constituted by the plurality of unit areas 102. The plurality of unit regions 102 included in the object existence region 113 include a unit region 102 where the measurement point 101 exists and a unit region 102 where the measurement point 101 does not exist.

本実施形態においては、格子のサイズは物体存在領域113の位置や大きさに関らず一定である。このS11の処理が、上述した設定部42による処理である。
S12では、CPU31は、ボクセル値計算を行う。ここでは、取得された測定点101それぞれに設定される投票領域に対して投票を行う。投票領域とは、1つ又は複数の単位領域を含むものである。
In the present embodiment, the size of the lattice is constant regardless of the position and size of the object existence region 113. The processing of S11 is processing by the setting unit 42 described above.
In S12, the CPU 31 performs voxel value calculation. Here, voting is performed for the voting area set for each of the acquired measurement points 101. The voting area includes one or a plurality of unit areas.

また投票は、重み付けを伴って行われる。具体的には、投票領域に含まれる1つ以上の単位領域に対して、投票領域への投票に係る測定点101からの距離が大きい単位領域ほど重み付けが小さくなるように投票が行われる。   Voting is performed with weighting. Specifically, voting is performed on one or more unit areas included in the voting area so that the unit area having a larger distance from the measurement point 101 related to voting to the voting area has a smaller weight.

まず、投票領域の設定について図6〜図8を用いて説明する。
図6A〜6Cは、1つの測定点101について、それぞれ異なる態様で単位領域102に投票が行われた状態を示す図である。なお理解を容易にする目的で、図6A〜6Cでは2次元的な図形を用いると共に、投票値については重み付けを考慮せずに「1」の値が投票されるものとする。
First, voting area setting will be described with reference to FIGS.
6A to 6C are diagrams illustrating states in which voting is performed on the unit region 102 in a different manner with respect to one measurement point 101. For the purpose of facilitating understanding, it is assumed that a two-dimensional figure is used in FIGS. 6A to 6C and that a value of “1” is voted without considering weighting.

図6Aは、測定点101が投票された単位領域102である主領域102A、及び、主領域102Aに隣接する空間である副領域102Bに対して投票が行われる場合を示す。3次元空間上では、主領域102Aと隣接する副領域102Bは6つ存在するため、合計7つの単位領域102に対して投票が行われる。この7つの単位領域102が、投票領域109となる。   FIG. 6A shows a case where voting is performed on the main area 102A, which is the unit area 102 where the measurement points 101 are voted, and the sub area 102B, which is a space adjacent to the main area 102A. Since there are six sub-regions 102B adjacent to the main region 102A in the three-dimensional space, voting is performed for a total of seven unit regions 102. These seven unit areas 102 become voting areas 109.

図6Bは、投票が行われる単位領域102の選択方法を図6Aのものから変更したものである。この場合では、主領域102Aの周囲を囲むように設定された副領域102Cに対して投票が行われる。3次元空間上では、主領域102Aと隣接する副領域102Cは26個存在する。よって、合計27個の単位領域102に対して投票が行われる。この27個の単位領域102が、投票領域109となる。   FIG. 6B is obtained by changing the method of selecting the unit area 102 where the voting is performed from that of FIG. 6A. In this case, voting is performed for the sub-region 102C set to surround the main region 102A. In the three-dimensional space, there are 26 sub-regions 102C adjacent to the main region 102A. Therefore, voting is performed for a total of 27 unit areas 102. These 27 unit areas 102 become voting areas 109.

図6Cは、投票が行われる単位領域102を、測定点101からの距離に応じて定めた場合の図である。図6Cに示されるように、測定点101から所定の距離に存在する単位領域102、言い換えると、測定点101を中心とする球体104内に一部でも含まれる単位領域102を、副領域102Dとして設定する。   FIG. 6C is a diagram in a case where the unit area 102 where voting is performed is determined according to the distance from the measurement point 101. As shown in FIG. 6C, a unit region 102 existing at a predetermined distance from the measurement point 101, in other words, a unit region 102 that is partially included in the sphere 104 centering on the measurement point 101 is defined as a sub region 102D. Set.

なお、副領域102Dを決定するための判断基準となる測定点101からの距離は、全ての方向に対して一定でなくともよい。例えば、図7A〜7Cに示されるように、断面が楕円形の空間を基準として副領域102Dを決定してもよい。図7A〜7Cの例では、X方向に関しては閾値となる距離が小さいが、Z方向に関してはより距離が大きく、Y方向に関してはZ方向よりもさらに距離が大きくなるように設定されている。   It should be noted that the distance from the measurement point 101, which is a determination criterion for determining the sub-region 102D, may not be constant in all directions. For example, as illustrated in FIGS. 7A to 7C, the sub-region 102D may be determined based on a space having an elliptical cross section. In the example of FIGS. 7A to 7C, the threshold distance is small in the X direction, but the distance is set to be larger in the Z direction, and the distance is set to be larger in the Y direction than in the Z direction.

本実施形態において、投票領域109の広さ、即ち投票領域109に含まれる単位領域102の数は、光学ユニット11から該投票領域109への投票に係る測定点101までの距離が大きいほど、多くなるように設定される。   In the present embodiment, the size of the voting area 109, that is, the number of unit areas 102 included in the voting area 109 increases as the distance from the optical unit 11 to the voting area 109 to the measurement point 101 related to voting increases. Is set to be

例えば図8Aに示されるように、物体と光学ユニット11との間の距離と、投票領域109の広さとの関係式を、線形の1次式又は2次式以上の高次多項式にて設定することができる。物体の位置は、測定点101の位置と言い換えることができる。またこれらの関係式は、実験的に求めた複数の実験値81から算出することが考えられる。なおこれらの関係式は、方向ごとに閾値を変えてもよい。例えば図8Bに示されるように、物体存在空間の水平方向、垂直方向、奥行方向のそれぞれについて異なる関係式が設定されていてもよい。なお、これらの関係式は、特に図6Cや図7A〜7Cで示されるように、測定点101からの距離を閾値として副領域を設定する場合に都合がよい。   For example, as shown in FIG. 8A, the relational expression between the distance between the object and the optical unit 11 and the width of the voting area 109 is set by a linear first-order expression or a higher-order polynomial of a second-order expression or higher. be able to. The position of the object can be rephrased as the position of the measurement point 101. These relational expressions may be calculated from a plurality of experimental values 81 obtained experimentally. In these relational expressions, the threshold value may be changed for each direction. For example, as shown in FIG. 8B, different relational expressions may be set for each of the horizontal direction, vertical direction, and depth direction of the object presence space. Note that these relational expressions are particularly convenient when setting a sub-region with the distance from the measurement point 101 as a threshold, as shown in FIGS. 6C and 7A to 7C.

また、図8Cに示されるように、上述した物体と光学ユニット11との距離と、格子数と、の関係を設定することができる。図8Cのうち実線は、投票領域として、測定点101が存在する主領域102Aから拡張される範囲を示すサイズを示している。また図8Cのうち破線は、測定点101が存在する主領域102Aを中心とした投票領域109に含まれる単位領域102(副領域)の総数を示している。上述した拡張範囲のサイズが1のとき、即ち、主領域102Aを中心とした、1辺が格子3つ分の長さの立方体を投票領域とするとき、副領域の数は、主領域102Aを中心とした、3個の格子のうち主領域102Aの分の1を除いた26個になる。同様に、上述した拡張範囲のサイズが2のときは5から1を除いた124個となり、拡張範囲のサイズが3のときは7から1を除いた342個となる。 Further, as shown in FIG. 8C, the relationship between the distance between the object and the optical unit 11 and the number of lattices can be set. The solid line in FIG. 8C indicates the size indicating the range extended from the main area 102A where the measurement point 101 exists as a voting area. 8C indicates the total number of unit areas 102 (sub areas) included in the voting area 109 centering on the main area 102A where the measurement point 101 exists. When the size of the extended range described above is 1, that is, when the voting region is a cube centered on the main region 102A and one side is three grids long, the number of subregions is the main region 102A. mainly, the 26 excluding the amount of the first main region 102A of the three three grid. Similarly, the size of the extended range described above 124 pieces and will, except for the 5 3 1 When the 2, when the size of the extended range of 3 a 342 amino excluding the 1 to 7 3.

次に、重み付けの設定について、図9A〜9Cを用いて説明する。
図9Aは、図6Aのように投票領域109を設定した場合において、主領域102Aと副領域102Bとで重み付けを変えた投票状態を示す。ここでは、測定点101を含む主領域102Aには「4」が、副領域102Bには「1」が投票される。
Next, setting of weighting will be described with reference to FIGS.
FIG. 9A shows a voting state in which the weight is changed between the main area 102A and the sub area 102B when the voting area 109 is set as shown in FIG. 6A. Here, “4” is voted for the main area 102A including the measurement point 101, and “1” is voted for the sub area 102B.

図9Bは、図6Bのように投票領域109を設定した場合において重み付けを変えた投票状態を示す。ここでは、主領域102Aには「16」が投票される。また副領域102Cのうち、3次元空間において主領域102Aと面同士が隣接する副領域102Cには「2」が投票され、それ以外の副領域102Cには「1」が投票される。   FIG. 9B shows a voting state in which the weight is changed when the voting area 109 is set as shown in FIG. 6B. Here, “16” is voted for the main area 102A. In the sub-region 102C, “2” is voted for the sub-region 102C whose surface is adjacent to the main region 102A in the three-dimensional space, and “1” is voted for the other sub-regions 102C.

各単位領域102に投票される値は、測定点101からの距離が大きい単位領域102ほど重み付けが小さくなるように設定することができる。このような距離と重み付けの関係は、常に厳密なものでなくてもよい。例えば、図9Bでは主領域102Aを基準とした距離によって重み付けをしているため、測定点101からの距離が小さくとも重み付けが小さくなる場合がある。しかしながら、物体存在領域113全体として見たときに、測定点101からの距離と重み付けの関係が大よそ成立していればよい。   The value voted for each unit region 102 can be set such that the unit region 102 having a larger distance from the measurement point 101 has a lower weight. Such a relationship between distance and weight may not always be exact. For example, in FIG. 9B, since weighting is performed based on the distance based on the main region 102A, the weighting may be small even if the distance from the measurement point 101 is small. However, when viewed as the entire object existence region 113, it is only necessary that the relationship between the distance from the measurement point 101 and the weight is approximately established.

図9Cに示されるように、測定点101から単位領域102までの距離と、投票重みと、の関係は、距離が大きいほど重み付けが小さくなる。ここで、上記距離と投票重みとの関係式は、例えば、線形関数やガウス関数などで示すことができる。   As shown in FIG. 9C, the relationship between the distance from the measurement point 101 to the unit region 102 and the voting weight becomes smaller as the distance is larger. Here, the relational expression between the distance and the voting weight can be expressed by, for example, a linear function or a Gaussian function.

以上の方法で、測定点それぞれに基づいて投票領域109に含まれる単位領域102への投票が行われ、その合計値が、物体存在領域113に係るボクセル表現として出力される。ボクセル表現には、物体存在領域113の大きさ、即ち物体存在領域113を構成する単位領域の数や形状などの情報と、単位領域ごとの、全ての測定点に基づく投票値の合計と、の情報が含まれる。このS12の処理が、上述した生成部43による処理である。   With the above method, voting is performed on the unit area 102 included in the voting area 109 based on each measurement point, and the total value is output as a voxel expression related to the object existence area 113. The voxel expression includes information on the size of the object existence area 113, that is, information such as the number and shape of unit areas constituting the object existence area 113, and the sum of voting values based on all measurement points for each unit area. Contains information. The processing of S12 is processing by the generation unit 43 described above.

図4の説明に戻る。
S13では、CPU31は、S12にて取得したボクセル表現を用いて、サポートベクターマシン(以下、SVM)の適用を実行する。ここでは、予め学習により作成された、例えば人や車などの所定の識別対象であるか否かを識別する識別器であるSVMモデルが用いられる。
Returning to the description of FIG.
In S13, the CPU 31 executes application of a support vector machine (hereinafter, SVM) using the voxel expression acquired in S12. Here, an SVM model is used that is an identifier that is created by learning in advance and that identifies whether the object is a predetermined identification target such as a person or a car.

SVMモデル作成は、次のように行う。まず、所定の識別対象と非識別対象に係る複数の学習用クラスタ点群に対してボクセル化を行う。その後、それぞれにて取得されたボクセル表現をベクトル化する。このようにして取得された識別対象と非識別対象の特徴ベクトル群に基づいて、SVMモデルを作成する。   The SVM model is created as follows. First, voxelization is performed on a plurality of learning cluster point groups related to predetermined identification objects and non-identification objects. After that, the voxel expressions acquired in each are vectorized. An SVM model is created on the basis of the feature vector group of the identification target and the non-identification target acquired in this way.

識別部44は、上述したボクセル表現をSVMモデルに代入することにより、クラスタ点群に対応する物体が、当該SVMモデルが識別する識別対象であるか否かの判定を行うように構成されている。   The identification unit 44 is configured to determine whether or not the object corresponding to the cluster point group is the identification target identified by the SVM model by substituting the above-described voxel expression into the SVM model. .

このS13の処理が、上述した識別部44による識別処理である。このS13の後、本処理が終了する。
[1−3.効果]
以上詳述した第1実施形態によれば、以下の効果が得られる。
The process of S13 is the identification process by the identification unit 44 described above. After this S13, this process ends.
[1-3. effect]
According to the first embodiment described in detail above, the following effects can be obtained.

(1a)本実施形態のレーダ装置1では、取得された測定点101に基づいて複数の単位領域102に投票がなされる。よって、取得されるボクセル表現に対する、測定誤差やノイズの影響を小さくすることができ、識別器による識別性を高めたロバストな物体の識別を行うことができる。   (1a) In the radar apparatus 1 according to the present embodiment, votes are given to the plurality of unit areas 102 based on the acquired measurement points 101. Therefore, it is possible to reduce the influence of measurement error and noise on the acquired voxel expression, and to perform robust object identification with improved discrimination by the classifier.

なお本実施形態では、光学ユニット11から測定点101までの距離が大きいほど、投票領域109が拡大される。上述した距離が大きくなるほど測定誤差やノイズの影響を受けやすくなる場合には、より高度に物体識別のロバスト性を向上させることができる。   In the present embodiment, the voting area 109 is enlarged as the distance from the optical unit 11 to the measurement point 101 increases. In the case where the above-mentioned distance becomes larger, the object identification is more easily affected by measurement errors and noises, so that the robustness of object identification can be improved to a higher degree.

(1b)レーダ装置1では、測定点101から単位領域102までの距離が大きいほど、投票の重み付けが小さくなり、投票値が小さくなる。これにより、測定されたデータを重視しつつも、測定点の誤差を吸収し、ロバストな物体識別を行うことができる。   (1b) In the radar apparatus 1, the greater the distance from the measurement point 101 to the unit region 102, the smaller the voting weight becomes, and the voting value becomes smaller. As a result, while focusing on the measured data, it is possible to absorb the error of the measurement point and perform robust object identification.

[1−4.第1実施形態の変形例]
<変形例1:重み付けの不使用>
上記実施形態においては、測定点101から投票領域に含まれる単位領域102への距離に応じて重み付けを行う構成を例示したが、重み付けは行われず、同じ値が投票される構成であってもよい。
[1-4. Modification of First Embodiment]
<Variation 1: Non-use of weighting>
In the above-described embodiment, the configuration in which weighting is performed according to the distance from the measurement point 101 to the unit region 102 included in the voting region is exemplified. However, the same value may be voted without weighting. .

<変形例2:反射強度に基づく重み付け投票>
(i)光学ユニット11は、受光部22が取得した反射光の強度(以下、反射強度と記載する)を出力可能に構成されている。このように、物体表面から該測定装置に向かって進む光を取得して該物体の位置を測定すると共に、その取得した光の強度を出力可能に構成されている場合には、投票における重み付けを、反射強度に応じて設定してもよい。
<Modification 2: Weighted voting based on reflection intensity>
(I) The optical unit 11 is configured to be able to output the intensity of reflected light (hereinafter referred to as reflection intensity) acquired by the light receiving unit 22. In this way, when the light traveling from the object surface toward the measuring device is acquired and the position of the object is measured, and the intensity of the acquired light can be output, weighting in voting is performed. It may be set according to the reflection intensity.

例えば、生成部43は、投票領域109に含まれる1つ以上の単位領域102に対して、投票領域109への投票に係る測定点101を取得するために光学ユニット11が取得した光の反射強度が大きいほど重み付けが大きくなるように投票を行うように構成することができる。   For example, the generation unit 43 reflects the light reflection intensity acquired by the optical unit 11 in order to acquire the measurement point 101 related to voting to the voting area 109 with respect to one or more unit areas 102 included in the voting area 109. It is possible to configure so that the voting is performed so that the weighting is increased as the value is larger.

なお、ここでいう反射強度とは、光学ユニット(11)が取得した反射光の強さ(明るさ)を意味する。
具体的には、図10Aに示されるように、主領域102Aと副領域102Cとを含む投票領域109には、測定点101の反射強度に応じたパラメータ「p」が投票されるように構成することができる。
In addition, the reflection intensity here means the intensity (brightness) of the reflected light acquired by the optical unit (11).
Specifically, as shown in FIG. 10A, a voting area 109 including the main area 102 </ b> A and the sub area 102 </ b> C is configured such that a parameter “p” corresponding to the reflection intensity of the measurement point 101 is voted. be able to.

また、図10Bに示されるように、反射強度による重み付けと、測定点101から単位領域102までの距離による重み付けと、を組み合わせた重み付けにすることもできる。
(ii)投票情報として、反射強度による重み付けを行わない場合のボクセル表現と、反射強度による重み付けを行う場合のボクセル表現と、を組み合わせた1つの特徴量を生成して、その投票情報に基づいて識別を行うように構成してもよい。
Further, as shown in FIG. 10B, weighting based on reflection intensity and weighting based on the distance from the measurement point 101 to the unit area 102 can be combined.
(Ii) As voting information, one feature value is generated by combining a voxel expression when weighting by reflection intensity is not performed and a voxel expression when weighting by reflection intensity is performed, and based on the voting information You may comprise so that identification may be performed.

この場合において、SVMモデル作成は、次のように行う。まず、所定の識別対象と非識別対象に係る複数の学習用クラスタ点群に対して、反射強度を用いない通常のボクセル化と、反射強度を用いたボクセル化と、を行う。その後、それぞれにて取得されたボクセル表現を、ベクトル化し結合する。このようにして取得された識別対象と非識別対象の特徴ベクトルに基づいて、SVMモデルを作成する。   In this case, the SVM model is created as follows. First, normal voxelization that does not use reflection intensity and voxelization that uses reflection intensity are performed on a plurality of learning cluster point groups related to a predetermined identification object and non-identification object. Thereafter, the voxel representations acquired in each are vectorized and combined. An SVM model is created based on the feature vectors of the identification target and the non-identification target acquired in this way.

次に、レーダ制御部12のCPU31が実行する識別処理について、図11のフローチャートを用いて説明する。
まず、S21では、CPU31は、通常のボクセル化を実行する。つまり、図10A、10Bに示されるように重み付け投票を行い、その結果のボクセル表現を取得する。
Next, identification processing executed by the CPU 31 of the radar control unit 12 will be described with reference to the flowchart of FIG.
First, in S21, the CPU 31 executes normal voxelization. That is, weighted voting is performed as shown in FIGS. 10A and 10B, and the resulting voxel representation is obtained.

S22では、CPU31は、反射強度を用いたボクセル化を実行する。
S23では、CPU31は、SVMの適用を実行する。ここでは、S21及びS22にて取得したボクセル表現を、上述したSVMモデルを作成するステップと同様の手法にて結合する。その結合した特徴ベクトルを、学習により予め生成されたSVMモデルに代入して、物体が識別対象物であるか否かを出力する。その後、本処理を終了する。
In S22, the CPU 31 performs voxelization using the reflection intensity.
In S23, the CPU 31 executes application of SVM. Here, the voxel expressions acquired in S21 and S22 are combined by the same method as in the step of creating the SVM model described above. The combined feature vector is substituted into an SVM model generated in advance by learning, and whether or not the object is an identification target is output. Thereafter, this process is terminated.

このような構成であれば、物体の識別を行う場合に、測定点の反射強度が考慮されることとなる。よって、より精度の高い識別処理を実行できるようになるとともに、測定点のノイズに強いロバストな識別処理を実行することができる。   With such a configuration, when the object is identified, the reflection intensity at the measurement point is taken into consideration. Therefore, it is possible to execute a discrimination process with higher accuracy, and it is possible to execute a robust discrimination process that is resistant to noise at the measurement point.

なお、反射強度による重み付けを行ってボクセル表現を取得した場合においては、そのボクセル表現のみを用いて物体の識別を実行してもよいし、反射強度による重み付けを行わない場合のボクセル表現も同時に取得して、識別器のスコアが高い方を取得するように構成されていてもよい。   In addition, when the voxel expression is obtained by performing weighting by the reflection intensity, the object identification may be executed using only the voxel expression, or the voxel expression when the weighting by the reflection intensity is not performed is also obtained at the same time. And you may be comprised so that the one with a higher score of a discriminator may be acquired.

<変形例3:反射強度による投票領域の設定>
上記変形例2に示されるように、測定点それぞれに係る反射強度を取得可能である場合には、反射強度に反比例して投票領域109の広さが変化するように構成されていてもよい。例えば、図12Aに示されるように、反射強度と投票領域の関係が実験的に求めた2点の実験値83を用いて線形に変化するように関係付けられていてもよいし、高次多項式によって関係付けられていてもよい。
<Modification 3: Setting of voting area by reflection intensity>
As shown in Modification 2 above, when the reflection intensity associated with each measurement point can be acquired, the size of the voting area 109 may be changed in inverse proportion to the reflection intensity. For example, as shown in FIG. 12A, the relationship between the reflection intensity and the voting area may be related so as to change linearly using two experimental values 83 obtained experimentally, or a higher-order polynomial May be related.

この場合は、投票領域109は、該投票領域109への投票に係る測定点の反射強度が小さいほど、投票領域109に含まれる単位領域102の数が多くなる。
またノイズ特性を考慮して、図12Bに示されるように、垂直方向、水平方向、奥行方向ごとに反射強度に応じた投票領域109が個別に変化するように構成されていてもよい。
In this case, the voting area 109 has a larger number of unit areas 102 included in the voting area 109 as the reflection intensity of the measurement points related to voting to the voting area 109 is lower.
In consideration of noise characteristics, as shown in FIG. 12B, the voting area 109 corresponding to the reflection intensity may be individually changed for each of the vertical direction, the horizontal direction, and the depth direction.

<変形例4:対象の動きに応じた投票領域の設定>
上記実施形態にて説明したように、クラスタ点群111に基づいて設定部42により物体存在領域113が設定される。ここで、投票領域109に含まれる単位領域102の数は、投票領域109への投票に係る測定点101の物体存在領域113における位置に応じて設定されるように構成されていてもよい。
<Variation 4: Setting of voting area according to movement of object>
As described in the above embodiment, the object existence region 113 is set by the setting unit 42 based on the cluster point group 111. Here, the number of unit areas 102 included in the voting area 109 may be set according to the position of the measurement point 101 related to voting in the voting area 109 in the object existence area 113.

例えば、図13Aに示されるように、識別器の識別対象が人71である場合において、腕部72と脚部73は、動作によって位置の変動が大きくなりやすいため、測定点にばらつきが生じやすい部分であると考えられる。そこで、図13Bに示されるように、物体存在領域113における腕部72及び脚部73に対応する領域に測定点が存在する場合には、投票領域109を広く設定し、また、その他の頭部74、胴部75などの動きが小さい部分については、投票領域109を相対的に狭く設定することが考えられる。   For example, as illustrated in FIG. 13A, when the identification target of the classifier is a person 71, the position of the arm portion 72 and the leg portion 73 is likely to increase due to movement, and thus the measurement points are likely to vary. Is considered part. Therefore, as shown in FIG. 13B, when the measurement points exist in the area corresponding to the arm part 72 and the leg part 73 in the object existence area 113, the voting area 109 is set wide, and other heads It is conceivable that the voting area 109 is set to be relatively narrow for portions with small movements such as 74 and the body 75.

このように構成することで、動きの大きい部分により生じる測定点のばらつきを吸収してロバストな物体の識別を行うことができる。
<変形例5:検出ラインに対応する2次元の単位領域設定>
図14Aに示されるように、光学ユニット11が取得する測定点101は、層状に並ぶ複数の仮想平面(光学ユニット11の発光仕様によって定義される)と、識別対象物の表面と、の交線上において取得されている。なお以下の説明において、前記交線をラインと呼び、ラインの数と仮想平面の数とは同じである。
With this configuration, it is possible to identify a robust object by absorbing variations in measurement points caused by a portion having a large movement.
<Modification 5: Two-dimensional unit area setting corresponding to detection line>
As shown in FIG. 14A, the measurement point 101 acquired by the optical unit 11 is on the intersection of a plurality of virtual planes (defined by the light emission specifications of the optical unit 11) arranged in layers and the surface of the identification object. Have been acquired. In the following description, the intersection line is called a line, and the number of lines and the number of virtual planes are the same.

そこで、取得されたクラスタ点群を、上述した複数の仮想平面ごとに分割し、分割したクラスタ点群ごとに、投票領域に対して投票を行うように構成されていてもよい。
図14Aでは、識別対象物115が6つのラインL1〜L6により構成されている。この6つのラインに対応する仮想平面は6つ存在する。ここで、その6つの仮想平面それぞれに対応するように、複数の単位領域102を組み合わせて構成された6つの物体存在領域121を設定することができる。この物体存在領域121は、2次元平面として扱うことができる。
Therefore, the acquired cluster point group may be divided for each of the plurality of virtual planes described above, and the vote area may be voted for each divided cluster point group.
In FIG. 14A, the identification object 115 is composed of six lines L1 to L6. There are six virtual planes corresponding to these six lines. Here, six object existence areas 121 configured by combining a plurality of unit areas 102 can be set so as to correspond to each of the six virtual planes. This object presence area 121 can be handled as a two-dimensional plane.

取得される投票情報は、その識別対象物115のライン数分の2次元ボクセル(すなわちピクセル)表現を含む情報である。
図14Bに示されるように、遠方に存在する識別対象物117は、相対的に少ないライン数で測定点101が取得される。その結果、その識別対象物117に対応する物体存在領域121の数が減少する。そこで、物体存在領域121の数に応じて予め準備した識別器を用いることで、より高精度に物体の識別を行うことができる。
The obtained voting information is information including two-dimensional voxel (that is, pixel) expressions corresponding to the number of lines of the identification object 115.
As shown in FIG. 14B, the measurement point 101 is acquired with a relatively small number of lines for the identification target object 117 that exists far away. As a result, the number of object existence areas 121 corresponding to the identification object 117 decreases. Therefore, by using a classifier prepared in advance according to the number of the object existence areas 121, it is possible to identify an object with higher accuracy.

このようにボクセル表現を取得することで、ライン数にかかわらず単一の識別器を用いた場合と比較して、物体の識別の精度を高めることができる。
以下に具体的な処理を説明する。レーダ制御部12のCPU31は、図3に示されるフローチャートに沿って処理を実行するが、S3の識別処理の具体的な内容が上記実施形態とは相違するため、その点について説明する。
By acquiring the voxel representation in this way, it is possible to increase the accuracy of object identification as compared to the case where a single classifier is used regardless of the number of lines.
Specific processing will be described below. The CPU 31 of the radar control unit 12 executes the process according to the flowchart shown in FIG. 3, but the specific contents of the identification process in S <b> 3 are different from those in the above embodiment, and this point will be described.

レーダ制御部12のCPU31が実行する識別処理について、図15のフローチャートを用いて説明する。
この処理では、まず、S31〜S33を反復して行う。反復はl回実行される。ここでいうlとは、ライン数であり、言い換えると物体存在領域121の数である。以下の説明におけるiは、その時点での反復回数である。
Identification processing executed by the CPU 31 of the radar control unit 12 will be described with reference to the flowchart of FIG.
In this process, first, S31 to S33 are repeated. The iteration is performed 1 time. Here, l is the number of lines, in other words, the number of object existence regions 121. In the following description, i is the number of iterations at that time.

S31では、CPU31は、格子設定を行う。具体的には、i番目の仮想平面において、格子状に分割した単位領域102を組み合わせた物体存在領域121を設定する。
S32では、CPU31は、ライン数がlであるクラスタ点群の中から、i番目のラインに対応する測定点101のデータを抽出して取得する。
In S31, the CPU 31 performs lattice setting. Specifically, in the i-th virtual plane, an object existence area 121 is set by combining unit areas 102 divided in a lattice shape.
In S32, the CPU 31 extracts and acquires data of the measurement point 101 corresponding to the i-th line from the cluster point group having the number of lines of l.

S33では、ボクセル値を計算する。ここでは、測定点101に応じた1つ以上の投票領域を対象として投票を行う。投票領域の設定や重み付けなどは、上記実施形態や変形例にて説明した手法を2次元に変更して用いることができる。   In S33, a voxel value is calculated. Here, voting is performed on one or more voting areas corresponding to the measurement points 101. The setting and weighting of the voting area can be used by changing the method described in the above embodiment and the modification to two dimensions.

このS31〜S33を、全ての物体存在領域121について実行する。これにより、投票情報として、l層の2次元ボクセル(すなわちピクセル)表現を取得する。その後、処理がS34に移行する。   Steps S31 to S33 are executed for all the object existence regions 121. Thereby, a two-dimensional voxel (that is, pixel) representation of the l layer is acquired as voting information. Thereafter, the process proceeds to S34.

S34では、CPU31は、予め学習されたSVMモデルの中から、ライン数lのモデルを選定する。
識別器であるSVMモデルは、ライン数ごとに作成される。即ち、ある識別対象物に基づいて生成された学習用のクラスタ点群について、ライン数をiとしたときのクラスタ点群を抽出する。そして、ラインごとにボクセル化を行い、取得された2次元ボクセル(すなわちピクセル)表現を用いてSVMモデルを作成する。この処理を、ライン数iを1〜Lまで繰り返すことにより、ライン数ごとのSVMモデルを作成する。なおLとは、光学ユニット11が取り得る最大のライン数である。もちろん、全てのライン数に対してSVMモデルを作成する必要があるわけではない。
In S34, the CPU 31 selects a model having the number of lines 1 from the previously learned SVM models.
An SVM model as a discriminator is created for each number of lines. That is, for a cluster point group for learning generated based on a certain identification object, a cluster point group is extracted when the number of lines is i. Then, voxelization is performed for each line, and an SVM model is created using the acquired two-dimensional voxel (that is, pixel) representation. This process is repeated for the number of lines i from 1 to L, thereby creating an SVM model for each number of lines. Note that L is the maximum number of lines that the optical unit 11 can take. Of course, it is not necessary to create SVM models for all the numbers of lines.

S35では、CPU31は、S31〜S33にて取得したボクセル表現を、SVMモデルに適用して、当該モデルの識別する対象物であるか否かを判定する。その後、本処理を終了する。   In S35, CPU31 applies the voxel expression acquired in S31-S33 to an SVM model, and determines whether it is the target object which the said model identifies. Thereafter, this process is terminated.

なお上述した例では、ラインを水平方向に分割し、ライン毎にボクセル表現を取得する構成を例示したが、分割する方向は水平方向に限られない。例えば、垂直方向に分割してもよい。   In the above-described example, the configuration in which the line is divided in the horizontal direction and the voxel expression is acquired for each line is illustrated, but the dividing direction is not limited to the horizontal direction. For example, it may be divided in the vertical direction.

[2.第2実施形態]
[2−1.第1実施形態との相違点]
第2実施形態は、基本的な構成は第1実施形態と同様であるため、相違点について以下に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
[2. Second Embodiment]
[2-1. Difference from the first embodiment]
Since the basic configuration of the second embodiment is the same as that of the first embodiment, differences will be described below. Note that the same reference numerals as those in the first embodiment indicate the same configuration, and the preceding description is referred to.

前述した第1実施形態では、投票領域109の広さを変更する構成を例示した。これに対し、第2実施形態では、単位領域の大きさを変更可能に構成されている点で、第1実施形態と相違する。   In the first embodiment described above, the configuration in which the size of the voting area 109 is changed is illustrated. In contrast, the second embodiment is different from the first embodiment in that the size of the unit area can be changed.

[2−2.処理]
本実施形態では、生成部43は、単位領域102の大きさを、光学ユニット11から投票に係る測定点101までの距離に応じて設定するように構成されている。より具体的には、単位領域102の大きさは、上述した距離が大きいほど、大きくなるように設定される。
[2-2. processing]
In the present embodiment, the generation unit 43 is configured to set the size of the unit region 102 according to the distance from the optical unit 11 to the measurement point 101 related to voting. More specifically, the size of the unit region 102 is set so as to increase as the above-described distance increases.

例えば図16Aに示されるように、上述した距離と、格子サイズ、即ち単位領域の大きさと、の関係式を、線形の1次式又は2次式以上の高次多項式にて設定することができる。またこれらの関係式は、実験的に求めた複数の実験値85から算出することが考えられる。なおこれらの関係式は、方向ごとに関係を変化させてもよい。例えば図16Bに示されるように、物体存在領域の水平方向、垂直方向、奥行方向のそれぞれについて異なる関係式が設定されていてもよい。   For example, as shown in FIG. 16A, the relational expression between the above-described distance and the lattice size, that is, the size of the unit region can be set by a linear first-order expression or a higher-order polynomial of a second-order expression or more. . These relational expressions may be calculated from a plurality of experimental values 85 obtained experimentally. Note that these relational expressions may change the relationship for each direction. For example, as shown in FIG. 16B, different relational expressions may be set for each of the horizontal direction, vertical direction, and depth direction of the object presence area.

[2−3.効果]
以上詳述した第2実施形態によれば、以下の効果が得られる。
(2a)本実施形態のレーダ装置1では、光学ユニット11から測定点101までの距離が大きいほど単位領域の大きさが大きくなる。よって、測定点101までの距離が大きくノイズが大きくなりやすい場合にノイズの影響を小さくすることができ、識別器による識別性を高めたロバストな物体識別を行うことができる。
[2-3. effect]
According to the second embodiment described in detail above, the following effects can be obtained.
(2a) In the radar apparatus 1 of the present embodiment, the unit area increases as the distance from the optical unit 11 to the measurement point 101 increases. Therefore, when the distance to the measurement point 101 is large and noise is likely to increase, the influence of noise can be reduced, and robust object identification with improved discrimination by the classifier can be performed.

[2−4.第2実施形態の変形例]
本実施形態においても、第1実施形態の変形例5にて説明したように、図14に示されるように、複数のラインに対応する、層状に並ぶ複数の仮想平面上において測定点が取得される場合には、2次元的な単位領域102を含む2次元的な物体存在領域121をライン数分集めたものを、投票情報として取得するように構成されていてもよい。そして、単位領域の大きさを、光学ユニット11から測定点101までの距離に応じて変化させるように構成することができる。
[2-4. Modification of Second Embodiment]
Also in the present embodiment, as described in Modification 5 of the first embodiment, as illustrated in FIG. 14, measurement points are acquired on a plurality of virtual planes arranged in layers corresponding to a plurality of lines. In this case, the two-dimensional object existence area 121 including the two-dimensional unit area 102 may be collected as the number of lines and acquired as voting information. Then, the size of the unit area can be changed according to the distance from the optical unit 11 to the measurement point 101.

[3.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
[3. Other Embodiments]
As mentioned above, although embodiment of this indication was described, this indication is not limited to the above-mentioned embodiment, and can carry out various modifications.

(3a)上記実施形態では、光学ユニット11の一例としてLIDARを例示した。しかしながら、物体の存在する位置を示す測定点を取得可能であれば、LIDAR以外の装置を用いてもよい。例えば、ステレオカメラのようにパッシブセンサを用いてもよい。   (3a) In the above embodiment, the LIDAR is illustrated as an example of the optical unit 11. However, an apparatus other than LIDAR may be used as long as a measurement point indicating a position where an object exists can be acquired. For example, you may use a passive sensor like a stereo camera.

(3b)上記第1実施形態では、単位領域102として格子状の空間を例示したが、格子状以外の形状であってもよい。例えば、物体存在領域113を一方から見たときの単位領域の断面が六角形となる、ハニカム形状であってもよい。   (3b) In the first embodiment, a lattice-shaped space is illustrated as the unit region 102, but a shape other than the lattice shape may be used. For example, it may have a honeycomb shape in which the cross section of the unit region when the object existence region 113 is viewed from one side is a hexagon.

また第2実施形態では単位領域102が矩形である構成を例示したが、この場合も、他の形状であってもよい。
(3c)上記第1実施形態では、投票領域109は、光学ユニット11から測定点101までの距離などによって変化する構成を例示したが、該投票領域109への投票に係る測定点を基準として、一定の基準で設定されるように構成されていてもよい。その場合、少なくとも2つの単位領域を含むように構成することができる。例えば、上記距離や反射強度に影響されずに、常に、図6Aに示されるように、主領域102Aに隣接する副領域102Bに投票を行うように構成されていてもよい。
In the second embodiment, the unit area 102 is rectangular. However, in this case, another shape may be used.
(3c) In the first embodiment, the voting area 109 is exemplified by a configuration that changes depending on the distance from the optical unit 11 to the measurement point 101, but the measurement point related to voting to the voting area 109 is used as a reference. You may be comprised so that it may set with a fixed reference | standard. In that case, it can be configured to include at least two unit regions. For example, it may be configured to always vote for the sub-region 102B adjacent to the main region 102A as shown in FIG. 6A without being affected by the distance and the reflection intensity.

(3d)上記実施形態では、投票情報とは、ボクセル表現で示される特徴量である構成を例示したが、少なくとも投票数又は投票値を有する情報であれば、上記実施形態にて示した以外の特徴量であってもよい。また、取得された投票数や投票値に対して、何らかの変換処理が行われた値であってもよい。   (3d) In the above embodiment, the voting information is exemplified by a configuration that is a feature amount represented by a voxel expression. However, if it is information having at least the number of votes or a voting value, the voting information is other than that shown in the above embodiment. It may be a feature amount. Further, it may be a value obtained by performing some conversion processing on the obtained number of votes or vote value.

また上記実施形態では、識別部44は、ボクセル表現を特徴量として識別器であるSVMモデルに代入することにより、クラスタ点群に対応する物体の識別を行う構成を例示した。しかしながら、上述した投票情報に基づいて物体の識別を行うことができれば、その具体的な処理内容は特に限定されず、用いる特徴量に応じた様々な処理によって識別を実行することができる。   In the above-described embodiment, the identification unit 44 exemplifies a configuration that identifies an object corresponding to a cluster point group by substituting a voxel expression as a feature amount into an SVM model that is a classifier. However, if the object can be identified based on the above-described voting information, the specific processing content is not particularly limited, and the identification can be executed by various processes according to the feature amount to be used.

(3e)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言から特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。   (3e) A plurality of functions of one constituent element in the above embodiment may be realized by a plurality of constituent elements, or a single function of one constituent element may be realized by a plurality of constituent elements. . Further, a plurality of functions possessed by a plurality of constituent elements may be realized by one constituent element, or one function realized by a plurality of constituent elements may be realized by one constituent element. Moreover, you may abbreviate | omit a part of structure of the said embodiment. In addition, at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of the other embodiment. In addition, all the aspects included in the technical idea specified from the wording described in the claims are embodiments of the present disclosure.

(3f)上述したレーダ制御部12の他、当該レーダ制御部12を構成要素とするシステムであるレーダ装置1、当該レーダ制御部12としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体など、種々の形態で本開示を実現することもできる。   (3f) In addition to the radar control unit 12 described above, the radar apparatus 1 which is a system having the radar control unit 12 as a constituent element, a program for causing a computer to function as the radar control unit 12, and a semiconductor memory storing the program The present disclosure can also be realized in various forms such as a non-transition actual recording medium.

1…レーダ装置、3…車両、11…光学ユニット、12…レーダ制御部、21…発光部、22…受光部、31…CPU、32…メモリ、41…取得部、42…設定部、43…生成部、44…識別部、71…人、72…腕部、73…脚部、74…頭部、75…胴部、101…測定点、102…単位領域、102A…主領域、102B,102C,102D…副領域、104…球体、109…投票領域、111…クラスタ点群、113,121…物体存在領域、115、117…識別対象物 DESCRIPTION OF SYMBOLS 1 ... Radar apparatus, 3 ... Vehicle, 11 ... Optical unit, 12 ... Radar control part, 21 ... Light emission part, 22 ... Light receiving part, 31 ... CPU, 32 ... Memory, 41 ... Acquisition part, 42 ... Setting part, 43 ... Generation unit 44 ... identification unit 71 ... human 72 ... arm part 73 ... leg part 74 ... head part 75 ... torso part 101 ... measurement point 102 ... unit area 102A ... main area 102B, 102C , 102D ... sub-region, 104 ... sphere, 109 ... voting region, 111 ... cluster point group, 113, 121 ... object existing region, 115, 117 ... identification object

Claims (11)

物体の存在する位置を示す1つ以上の測定点を検出する測定装置(11)から、前記1つ以上の測定点を取得するように構成された取得部(41)と、
前記1つ以上の測定点が存在する領域を構成する複数の単位領域に対して、前記取得部により取得された前記1つ以上の測定点それぞれに基づく投票を行い、少なくとも前記複数の単位領域それぞれへの投票値を含む情報である投票情報を生成するように構成された生成部(43)と、を備え、
前記生成部は、前記1つ以上の測定点それぞれに設定される1つ又は複数の前記単位領域を含む投票領域に対して投票を行うように構成されている、情報処理装置(12)。
An acquisition unit (41) configured to acquire the one or more measurement points from a measurement device (11) that detects one or more measurement points indicating a position where the object exists;
Voting based on each of the one or more measurement points acquired by the acquisition unit is performed on a plurality of unit areas constituting the area where the one or more measurement points exist, and at least each of the plurality of unit areas A generation unit (43) configured to generate vote information that is information including a vote value for
The information processing apparatus (12), wherein the generation unit is configured to perform voting on a voting area including one or a plurality of the unit areas set at each of the one or more measurement points.
請求項1に記載の情報処理装置であって、
前記投票領域は、該投票領域への投票に係る前記測定点を基準として一定の基準で設定される少なくとも2つの単位領域を含む、情報処理装置。
The information processing apparatus according to claim 1,
The information processing apparatus, wherein the voting area includes at least two unit areas that are set based on the measurement points related to voting to the voting area.
請求項1に記載の情報処理装置であって、
前記投票領域は、前記測定装置から該投票領域への投票に係る前記測定点までの距離が大きいほど、前記投票領域に含まれる前記単位領域の数が多くなる、情報処理装置。
The information processing apparatus according to claim 1,
The information processing apparatus in which the number of the unit areas included in the voting area increases as the distance from the measuring device to the measurement point related to voting to the voting area increases.
請求項1又は請求項3に記載の情報処理装置であって、
前記測定装置は、物体表面から該測定装置に向かって進む光を取得して該物体の位置を測定すると共に、取得した前記光の強度を出力可能に構成されており、
前記投票領域は、該投票領域への投票に係る前記測定点を取得するために前記測定装置が取得した前記光の強度が小さいほど、前記投票領域に含まれる前記単位領域の数が多くなる、情報処理装置。
The information processing apparatus according to claim 1 or 3,
The measuring device is configured to acquire light traveling from the object surface toward the measuring device and measure the position of the object, and to output the intensity of the acquired light.
The voting area has a larger number of unit areas included in the voting area, as the intensity of the light acquired by the measuring device to acquire the measurement points related to voting to the voting area is smaller. Information processing device.
請求項1、請求項3及び請求項4のいずれか1項に記載の情報処理装置であって、
さらに、前記測定装置により測定された前記1つ以上の測定点に基づいて、前記1つ以上の測定点が含まれる領域である物体存在領域を設定するように構成された設定部(42)を有しており、
前記単位領域は、前記物体存在領域を構成するものであり、
前記投票領域に含まれる前記単位領域の数は、前記投票領域への投票に係る前記測定点の前記物体存在領域における位置に応じて設定される、情報処理装置。
An information processing apparatus according to any one of claims 1, 3, and 4,
Furthermore, a setting unit (42) configured to set an object presence area, which is an area including the one or more measurement points, based on the one or more measurement points measured by the measurement device. Have
The unit area constitutes the object existence area,
The number of the unit areas included in the voting area is set according to a position in the object existence area of the measurement point related to voting to the voting area.
請求項1から請求項5のいずれか1項に記載の情報処理装置であって、
前記生成部は、前記投票領域に含まれる1つ以上の前記単位領域に対して、前記投票領域への投票に係る前記測定点からの距離が大きい前記単位領域ほど重み付けが小さくなるように投票を行うように構成されている、情報処理装置。
The information processing apparatus according to any one of claims 1 to 5,
The generating unit performs voting on one or more unit areas included in the voting area so that the unit area having a larger distance from the measurement point related to voting to the voting area has a lower weight. An information processing apparatus configured to perform.
請求項1から請求項6のいずれか1項に記載の情報処理装置であって、
前記測定装置は、物体表面から該測定装置に向かって進む光を取得して該物体の位置を測定すると共に、取得した前記光の強度を出力可能に構成されており、
前記生成部は、前記投票領域に含まれる1つ以上の前記単位領域に対して、前記投票領域への投票に係る前記測定点を取得するために前記測定装置が取得した前記光の強度が大きいほど重み付けが大きくなるように投票を行うように構成されている、情報処理装置。
An information processing apparatus according to any one of claims 1 to 6,
The measuring device is configured to acquire light traveling from the object surface toward the measuring device and measure the position of the object, and to output the intensity of the acquired light.
The generation unit has a large intensity of the light acquired by the measurement device to acquire the measurement points related to voting to the voting area with respect to one or more unit areas included in the voting area. An information processing apparatus configured to perform voting so that the weighting increases as the weight increases.
物体の存在する位置を示す1つ以上の測定点を検出する測定装置(11)から、前記1つ以上の測定点を取得するように構成された取得部(41)と、
前記1つ以上の測定点が存在する領域を構成する複数の単位領域に対して、前記取得部により取得された前記1つ以上の測定点それぞれに基づく投票を行い、少なくとも前記複数の単位領域それぞれへの投票値を含む情報である投票情報を生成するように構成された生成部(43)と、を備え、
前記生成部は、前記単位領域の大きさを変更可能に構成されている、情報処理装置(12)。
An acquisition unit (41) configured to acquire the one or more measurement points from a measurement device (11) that detects one or more measurement points indicating a position where the object exists;
Voting based on each of the one or more measurement points acquired by the acquisition unit is performed on a plurality of unit areas constituting the area where the one or more measurement points exist, and at least each of the plurality of unit areas A generation unit (43) configured to generate vote information that is information including a vote value for
The information processing apparatus (12), wherein the generation unit is configured to be able to change a size of the unit area.
請求項8に記載の情報処理装置であって、
前記生成部は、前記単位領域の大きさを、前記測定装置から前記投票に係る前記測定点までの距離に応じて設定するように構成されている、情報処理装置。
The information processing apparatus according to claim 8,
The information processing apparatus, wherein the generation unit is configured to set a size of the unit area according to a distance from the measurement apparatus to the measurement point related to the voting.
請求項1から請求項9のいずれか1項に記載の情報処理装置であって、
前記測定点は、層状に並ぶ複数の仮想平面に並ぶように、前記測定装置により取得され、
前記単位領域は、前記仮想平面に対応して設定される領域である、情報処理装置。
The information processing apparatus according to any one of claims 1 to 9,
The measurement points are acquired by the measurement device so as to be arranged in a plurality of virtual planes arranged in layers,
The information processing apparatus, wherein the unit area is an area set corresponding to the virtual plane.
請求項1から請求項10のいずれか1項に記載の情報処理装置であって、
前記生成部により生成された投票情報に基づいて、物体の種別を識別する識別部(44)を備える、情報処理装置。
An information processing apparatus according to any one of claims 1 to 10,
An information processing apparatus comprising an identification unit (44) for identifying a type of an object based on voting information generated by the generation unit.
JP2017024953A 2017-02-14 2017-02-14 Information processing device Active JP6918509B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017024953A JP6918509B2 (en) 2017-02-14 2017-02-14 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017024953A JP6918509B2 (en) 2017-02-14 2017-02-14 Information processing device

Publications (2)

Publication Number Publication Date
JP2018132873A true JP2018132873A (en) 2018-08-23
JP6918509B2 JP6918509B2 (en) 2021-08-11

Family

ID=63248456

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017024953A Active JP6918509B2 (en) 2017-02-14 2017-02-14 Information processing device

Country Status (1)

Country Link
JP (1) JP6918509B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021135192A (en) * 2020-02-27 2021-09-13 株式会社デンソー Object detection device
WO2022230263A1 (en) * 2021-04-26 2022-11-03 ソニーグループ株式会社 Image processing device and method
JP7363575B2 (en) 2020-02-27 2023-10-18 株式会社デンソー object detection device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000329852A (en) * 1999-05-17 2000-11-30 Nissan Motor Co Ltd Obstacle recognition device
JP2005215908A (en) * 2004-01-29 2005-08-11 Mitsubishi Electric Corp Method of detecting person and method of tracking person using it

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000329852A (en) * 1999-05-17 2000-11-30 Nissan Motor Co Ltd Obstacle recognition device
JP2005215908A (en) * 2004-01-29 2005-08-11 Mitsubishi Electric Corp Method of detecting person and method of tracking person using it

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021135192A (en) * 2020-02-27 2021-09-13 株式会社デンソー Object detection device
JP7363574B2 (en) 2020-02-27 2023-10-18 株式会社デンソー object detection device
JP7363575B2 (en) 2020-02-27 2023-10-18 株式会社デンソー object detection device
WO2022230263A1 (en) * 2021-04-26 2022-11-03 ソニーグループ株式会社 Image processing device and method

Also Published As

Publication number Publication date
JP6918509B2 (en) 2021-08-11

Similar Documents

Publication Publication Date Title
CA2915458C (en) Lidar-based classification of object movement
CN105590339B (en) The collision checking method and system of threedimensional model
JP2018132873A (en) Information processing apparatus
US20160283792A1 (en) Information processing apparatus, information processing method, and storage medium
US20210118176A1 (en) Methods and apparatus for processing image data for machine vision
JP6320016B2 (en) Object detection apparatus, object detection method and program
CN108885719B (en) Stereo vision based random map generation and bayesian updating
JP2017526083A (en) Positioning and mapping apparatus and method
CN113111513A (en) Sensor configuration scheme determination method and device, computer equipment and storage medium
JP6523196B2 (en) Estimation apparatus, method and program
JP2018131110A (en) Estimation device, estimation method, and estimation program
KR20200028249A (en) Facility data fault diagnosis system and method of the same
US10115224B2 (en) Method and apparatus generating acceleration structure
US11093730B2 (en) Measurement system and measurement method
JP5656018B2 (en) Sphere detection method
JP6941226B2 (en) Object recognition device
KR20210101271A (en) An image matching method, and an arithmetic system for executing image matching processing
CN115937817A (en) Target detection method and system and excavator
JP2020061132A (en) Methods and apparatus for processing image data for machine vision
JP2003256871A (en) Method and device for generating shape model, program for executing the same method and recording medium having its program recorded thereon
CN112734899B (en) Modeling method and device for local self-shading shadow on object surface
US12019958B2 (en) Method and apparatus for automated test plan generation to measure a measurement object
Stavropoulos et al. Adaptive Toolpath Planning for Hybrid Manufacturing Based on Raw 3D Scanning Data
JP2023524694A (en) Method and Apparatus for Comparing Physical Object Simulations and Physical Object Measurement Data; and Method and Apparatus for Generating Finite Element Representations of Physical Object Measurement Data
US20230101689A1 (en) Method, apparatus, and program for matching point cloud data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190416

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200720

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210331

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210407

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210601

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210721

R150 Certificate of patent or registration of utility model

Ref document number: 6918509

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150