WO2023276840A1 - Vehicle-mounted device, identifying method, computer program, and vehicle-mounted system - Google Patents

Vehicle-mounted device, identifying method, computer program, and vehicle-mounted system Download PDF

Info

Publication number
WO2023276840A1
WO2023276840A1 PCT/JP2022/025019 JP2022025019W WO2023276840A1 WO 2023276840 A1 WO2023276840 A1 WO 2023276840A1 JP 2022025019 W JP2022025019 W JP 2022025019W WO 2023276840 A1 WO2023276840 A1 WO 2023276840A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
unit
tracking
target
information
Prior art date
Application number
PCT/JP2022/025019
Other languages
French (fr)
Japanese (ja)
Inventor
俊平 高木
Original Assignee
住友電気工業株式会社
株式会社オートネットワーク技術研究所
住友電装株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 住友電気工業株式会社, 株式会社オートネットワーク技術研究所, 住友電装株式会社 filed Critical 住友電気工業株式会社
Priority to JP2023531876A priority Critical patent/JPWO2023276840A1/ja
Publication of WO2023276840A1 publication Critical patent/WO2023276840A1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • FIG. 8 is a diagram for explaining an example of the effective target first selection process.
  • FIG. 9 is a diagram for explaining an example of the effective target first selection process.
  • FIG. 10 is a diagram illustrating an example of an object tracking result by an object tracking unit;
  • FIG. 11 is a diagram for explaining an example of the second valid target selection process.
  • FIG. 12 is a diagram for explaining an example of the second valid target selection process.
  • FIG. 13 is a diagram conceptually showing a validation gate.
  • FIG. 14 is a diagram for explaining an example of object tracking processing.
  • FIG. 15 is a diagram for explaining an example of transmission target selection processing by a transmission target selection unit.
  • FIG. 16 is a diagram for explaining an example of transmission target selection processing by a transmission target selection unit.
  • FIG. 15 is a diagram for explaining an example of transmission target selection processing by a transmission target selection unit.
  • Patent Literature 1 and Patent Literature 2 do not disclose a specific object identification method.
  • An in-vehicle device is an in-vehicle device mounted on a vehicle, wherein first information indicating the position of a first object detected by a first sensor mounted on the vehicle; , the first object and the second object based on second information indicating the position of the second object detected by the second sensor outside the vehicle and the tracking result of the position of the first object or the second object; It has an identification unit that identifies two objects.
  • the target receiving unit 107 and the target transmitting unit 110 are communication modules included in the communication device 140 shown in FIG.
  • the time lag correction unit 108 calculates the movement amount (moving direction and moving distance) of the vehicle 7 for 300 milliseconds based on the moving speed and moving direction of the vehicle 7 included in the received target list.
  • the time lag correction unit 108 calculates the detection position 22E by moving the detection position 22D by the calculated movement amount.
  • the time shift correction unit 108 estimates the detection position 22E of the vehicle 7 that would have been detected by the vehicle 2 at the detection time 00:00:00.500 of the vehicle 7 by the object detection unit 102 .
  • the time lag correction unit 108 rewrites the detection time and the position coordinates of the target of the vehicle 7 included in the received target list to the detection time 00:00:00.500 and the position coordinates of the detection position 22E. Correct the received target list.
  • the time lag correction unit 108 corrects the time lag of targets included in the received target list.
  • FIG. 11 and 12 are diagrams for explaining an example of the second valid target selection process.
  • the second effective target selection unit 106 adds the object tracking result shown in FIG. and object detection positions 22A and 22B are superimposed.
  • the second valid target selection unit 106 determines that the target of the object corresponding to the detection position 22B is invalid.
  • the Mahalanobis distance from the tracking position 41C to the self-position 21 is smaller than the Mahalanobis distance from the tracking position 41C to the detection position 12C. Therefore, the second valid target selection unit 106 determines that the target of the vehicle 2 corresponding to the self-position 21 is valid. Note that the second valid target selection unit 106 always determines that the target corresponding to the detected position 12C in the validation gate 51C by the vehicle 1 is valid. Note that the second effective target selection unit 106 may select targets detected by the vehicle 1 .
  • the validation gate 51B of the tracking position 41B includes detection positions 22B and 22C of objects indicated by targets received from others. Therefore, the transmission target selection unit 109 determines not to transmit the target indicating the tracking position 41B. Similarly, the self-position 21 of the vehicle 2 indicated by the targets received from others is contained within the validation gate 51C of the tracking position 41C. Therefore, the transmission target selection unit 109 determines not to transmit the target indicating the tracking position 41C. Note that the transmission target selection unit 109 always selects a target indicating the self-position 11 of the vehicle 1 as a transmission target.
  • the target transmission unit 110 transmits the target selected by the transmission target selection unit 109 to an external device by broadcasting the target.
  • the second valid target selection unit 106 calculates the minimum Mahalanobis distance among the Mahalanobis distances calculated in step S72 (step S73).
  • the time shift correction unit 108 can correct the position of the second object in consideration of the shift between the detection time of the first object and the detection time of the second object. Thereby, the first object and the second object can be identified based on the detected positions of the first object and the second object at the same time. Thereby, the first object and the second object can be accurately identified.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

This vehicle-mounted device is mounted in a vehicle and is provided with an identifying unit which, on the basis of first information indicating the position of a first object detected by means of a first sensor mounted in the vehicle, second information indicating the position of a second object detected by means of a second sensor outside the vehicle, and a tracking result of the position of the first object or the second object, identifies the first object and the second object.

Description

車載装置、同定方法、コンピュータプログラム、及び車載システムIn-vehicle device, identification method, computer program, and in-vehicle system
 本開示は、車載装置、同定方法、コンピュータプログラム、及び車載システムに関する。
 本出願は、2021年7月1日出願の日本出願第2021-109867号に基づく優先権を主張し、前記日本出願に記載された全ての記載内容を援用するものである。
The present disclosure relates to an in-vehicle device, an identification method, a computer program, and an in-vehicle system.
This application claims priority based on Japanese Application No. 2021-109867 filed on July 1, 2021, and incorporates all the descriptions described in the Japanese Application.
 自動車等の車両に搭載されたセンサを用いて、車両の走行制御の支援を行うシステムが開発されている。このようなシステムにおいては、他者(他車両又は路側装置等の外部装置)との間で通信を行うことにより、センサの死角領域における物体の検知結果を取得し、死角のない物体の検出が試みられている(例えば、特許文献1及び特許文献2参照)。  A system has been developed that uses sensors installed in vehicles such as automobiles to assist in driving control of the vehicle. In such a system, by communicating with another person (an external device such as another vehicle or a roadside device), the detection result of the object in the blind spot area of the sensor is acquired, and the object without the blind spot can be detected. Attempts have been made (see, for example, Patent Documents 1 and 2).
国際公開第2019/106704号公報International Publication No. 2019/106704 特開2016-212663号公報JP 2016-212663 A
 本開示の一態様に係る車載装置は、車両に搭載される車載装置であって、前記車両に搭載された第1センサにより検出された第1物体の位置を示す第1情報と、前記車両外の第2センサにより検出された第2物体の位置を示す第2情報と、前記第1物体又は前記第2物体の位置の追跡結果とに基づいて、前記第1物体及び前記第2物体の同定を行う同定部を備える。 An in-vehicle device according to an aspect of the present disclosure is an in-vehicle device mounted on a vehicle, and includes first information indicating the position of a first object detected by a first sensor mounted on the vehicle; Identification of the first object and the second object based on second information indicating the position of the second object detected by the second sensor of and the tracking result of the position of the first object or the second object and an identification unit that performs
 本開示の他の態様に係る同定方法は、車両に搭載される車載装置による物体の同定方法であって、前記車両に搭載された第1センサにより検出された第1物体の位置を示す第1情報と、前記車両外の第2センサにより検出された第2物体の位置を示す第2情報と、前記第1物体又は前記第2物体の位置の追跡結果とに基づいて、前記第1物体及び前記第2物体の同定を行うステップを含む。 An identification method according to another aspect of the present disclosure is an object identification method using an in-vehicle device mounted on a vehicle, wherein a first sensor indicating the position of a first object detected by a first sensor mounted on the vehicle information, second information indicating the position of a second object detected by a second sensor outside the vehicle, and tracking results of the position of the first object or the second object, the first object and The step of identifying the second object is included.
 本開示の他の態様に係るコンピュータプログラムは、車両に搭載されるコンピュータを、前記車両に搭載された第1センサにより検出された第1物体の位置を示す第1情報と、前記車両外の第2センサにより検出された第2物体の位置を示す第2情報と、前記第1物体又は前記第2物体の位置の追跡結果とに基づいて、前記第1物体及び前記第2物体の同定を行う同定部として機能させる。 A computer program according to another aspect of the present disclosure causes a computer mounted on a vehicle to perform first information indicating a position of a first object detected by a first sensor mounted on the vehicle and a first object outside the vehicle. The first object and the second object are identified based on the second information indicating the position of the second object detected by the two sensors and the tracking result of the position of the first object or the second object. It functions as an identification part.
 本開示の他の態様に係る車載システムは、車両に搭載される車載システムであって、前記車両外のセンサにより検出された物体の位置を示す情報を受信する受信部と、前記車両の周囲の物体を追跡する物体追跡部と、前記車両に搭載されたセンサにより検出された物体の位置を示す情報と、前記受信部が受信した情報と、前記物体追跡部による追跡結果とに基づいて、前記車両に搭載されたセンサにより検出された物体、及び前記車両外のセンサにより検出された物体の同定を行う同定部とを備える。 An in-vehicle system according to another aspect of the present disclosure is an in-vehicle system mounted in a vehicle, comprising: a receiving unit that receives information indicating the position of an object detected by a sensor outside the vehicle; Based on an object tracking unit that tracks an object, information indicating the position of the object detected by a sensor mounted on the vehicle, information received by the receiving unit, and a tracking result of the object tracking unit, an identification unit that identifies an object detected by a sensor mounted on the vehicle and an object detected by the sensor outside the vehicle;
 なお、本開示は、同定方法に含まれる特徴的なステップをコンピュータに実行させるためのコンピュータプログラムとして実現することもできる。そして、そのようなコンピュータプログラムを、CD-ROM(Compact Disc-Read Only Memory)等のコンピュータ読取可能な非一時的な記録媒体やインターネット等の通信ネットワークを介して流通させることができるのは、言うまでもない。また、本開示は、車載装置の一部又は全部を実現する半導体集積回路として実現することもできる。 The present disclosure can also be implemented as a computer program for causing a computer to execute characteristic steps included in the identification method. It goes without saying that such a computer program can be distributed via a computer-readable non-temporary recording medium such as a CD-ROM (Compact Disc-Read Only Memory) or a communication network such as the Internet. stomach. The present disclosure can also be implemented as a semiconductor integrated circuit that implements part or all of the in-vehicle device.
図1は、本開示の実施形態に係る運転支援システムの一例を示す図である。FIG. 1 is a diagram showing an example of a driving assistance system according to an embodiment of the present disclosure. 図2は、本開示の実施形態に係る車両に搭載される車載システムのハードウェア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of an in-vehicle system mounted on a vehicle according to an embodiment of the present disclosure; 図3は、図2に示した車載システムの機能的な構成を示す図である。FIG. 3 is a diagram showing a functional configuration of the in-vehicle system shown in FIG. 2. As shown in FIG. 図4は、死角領域管理部が管理する死角領域を含むグリッドマップの一例を示す図である。FIG. 4 is a diagram showing an example of a grid map including blind areas managed by the blind area management unit. 図5は、物標受信部が受信した物標のリストの一例を示す図である。FIG. 5 is a diagram showing an example of a target list received by the target receiving unit. 図6は、車両の位置関係の一例を示す図である。FIG. 6 is a diagram showing an example of the positional relationship of vehicles. 図7は、車両が観測した物体の位置の一例を示す図である。FIG. 7 is a diagram showing an example of the positions of objects observed by a vehicle. 図8は、有効物標第一選択処理の一例を説明するための図である。FIG. 8 is a diagram for explaining an example of the effective target first selection process. 図9は、有効物標第一選択処理の一例を説明するための図である。FIG. 9 is a diagram for explaining an example of the effective target first selection process. 図10は、物体追跡部による物体の追跡結果の一例を示す図である。FIG. 10 is a diagram illustrating an example of an object tracking result by an object tracking unit; 図11は、有効物標第二選択処理の一例を説明するための図である。FIG. 11 is a diagram for explaining an example of the second valid target selection process. 図12は、有効物標第二選択処理の一例を説明するための図である。FIG. 12 is a diagram for explaining an example of the second valid target selection process. 図13は、バリデーションゲートを概念的に示した図である。FIG. 13 is a diagram conceptually showing a validation gate. 図14は、物体追跡処理の一例を説明するための図である。FIG. 14 is a diagram for explaining an example of object tracking processing. 図15は、送信物標選択部による送信物標の選択処理の一例について説明するための図である。FIG. 15 is a diagram for explaining an example of transmission target selection processing by a transmission target selection unit. 図16は、送信物標選択部による送信物標の選択処理の一例について説明するための図である。FIG. 16 is a diagram for explaining an example of transmission target selection processing by a transmission target selection unit. 図17は、物標送信部による送信処理の一例を説明するための図である。FIG. 17 is a diagram for explaining an example of transmission processing by a target transmission unit; 図18は、車載システムの処理手順の一例を示すフローチャートである。FIG. 18 is a flow chart showing an example of the processing procedure of the in-vehicle system. 図19は、有効物標第一選択処理(図18のステップS6)の処理手順の一例を示すフローチャートである。FIG. 19 is a flow chart showing an example of the processing procedure of the effective target first selection processing (step S6 in FIG. 18). 図20は、有効物標第二選択処理(図18のステップS7)の処理手順の一例を示すフローチャートである。FIG. 20 is a flow chart showing an example of the processing procedure of the second valid target selection process (step S7 in FIG. 18). 図21は、送信物標選択処理(図18のステップS8)の処理手順の一例を示すフローチャートである。FIG. 21 is a flow chart showing an example of the procedure of the transmission target selection process (step S8 in FIG. 18).
 [本開示が解決しようとする課題]
 自車のセンサ及び他者のセンサの重複する検知範囲内の物体については複数の検知結果が得られる場合がある。このため、1台の車両を2台以上の車両であると誤認識して、不要な車両の走行制御が発生する可能性がある。そこで、これらの物体が同一物体か否かを正確に同定する必要がある。例えば、自車両に搭載されたセンサが検出した第1物体の背後の死角領域において他者が第2物体を検出した場合には、第1物体と第2物体とが同一物体か否かを同定する必要がある。
[Problems to be Solved by the Present Disclosure]
A plurality of detection results may be obtained for an object within overlapping detection ranges of the own vehicle's sensor and the other's sensor. For this reason, there is a possibility that one vehicle may be erroneously recognized as two or more vehicles, and unnecessary vehicle travel control may occur. Therefore, it is necessary to accurately identify whether or not these objects are the same object. For example, if another person detects a second object in a blind spot area behind a first object detected by a sensor mounted on the vehicle, it is possible to identify whether the first object and the second object are the same object. There is a need to.
 しかしながら、特許文献1及び特許文献2においては、具体的な物体の同定方法が示されていない。 However, Patent Literature 1 and Patent Literature 2 do not disclose a specific object identification method.
 本発明は、このような事情に鑑みてなされたものであり、車両の走行制御を効率的に行うことのできる車載装置、同定方法、コンピュータプログラム、及び車載システムを提供することを目的とする。 The present invention has been made in view of such circumstances, and aims to provide an in-vehicle device, an identification method, a computer program, and an in-vehicle system capable of efficiently performing vehicle travel control.
 [本開示の効果]
 本開示によると、車両の走行制御を効率的に行うことができる。
[Effect of the present disclosure]
Advantageous Effects of Invention According to the present disclosure, it is possible to efficiently perform travel control of a vehicle.
 [本開示の実施形態の概要]
 最初に本開示の実施形態の概要を列記して説明する。
 (1)本開示の一実施形態に係る車載装置は、車両に搭載される車載装置であって、前記車両に搭載された第1センサにより検出された第1物体の位置を示す第1情報と、前記車両外の第2センサにより検出された第2物体の位置を示す第2情報と、前記第1物体又は前記第2物体の位置の追跡結果とに基づいて、前記第1物体及び前記第2物体の同定を行う同定部を備える。
[Outline of Embodiment of Present Disclosure]
First, an overview of the embodiments of the present disclosure will be listed and described.
(1) An in-vehicle device according to an embodiment of the present disclosure is an in-vehicle device mounted on a vehicle, wherein first information indicating the position of a first object detected by a first sensor mounted on the vehicle; , the first object and the second object based on second information indicating the position of the second object detected by the second sensor outside the vehicle and the tracking result of the position of the first object or the second object; It has an identification unit that identifies two objects.
 この構成によると、物体の位置の追跡結果を用いて、第1物体と第2物体とを同定する。このため、過去からの物体の位置の連続性を考慮して、第1物体と第2物体とを正確に同定することができる。これにより、1つの物体を複数の物体であると誤認識することを防止することができるため、不要な車両の走行制御の発生を防止することができ、車両の走行制御を効率的に行うことができる。 According to this configuration, the first object and the second object are identified using the tracking result of the positions of the objects. Therefore, it is possible to accurately identify the first object and the second object by considering the continuity of the positions of the objects from the past. As a result, it is possible to prevent one object from being erroneously recognized as a plurality of objects, thereby preventing the occurrence of unnecessary running control of the vehicle and efficiently performing the running control of the vehicle. can be done.
 (2)(1)において、前記車載装置は、前記第2情報の中から、前記第1センサによる物体の検出可能領域内に存在する前記第2物体の位置を除外した前記第2情報を選択する情報選択部をさらに備え、前記同定部は、前記追跡結果と、前記第1情報と、前記情報選択部により選択された前記第2情報とに基づいて、前記第1物体及び前記第2物体の同定を行ってもよい。 (2) In (1), the in-vehicle device selects, from the second information, the second information excluding the position of the second object existing within the object detectable area of the first sensor. The identification unit selects the first object and the second object based on the tracking result, the first information, and the second information selected by the information selection unit. identification may be performed.
 この構成によると、死角領域を除く第1センサによる物体の検出可能領域内に第2センサにより検出された第2物体が存在する場合には、当該第2物体は第2センサにより誤検出されたものであると判断して、第2物体を除外することができる。これにより、第1センサによる物体の検出結果を優先して、第1物体及び第2物体の同定を行うことができる。 According to this configuration, when the second object detected by the second sensor exists within the detectable area of the object by the first sensor excluding the blind area, the second object is erroneously detected by the second sensor. The second object can be ruled out. Thereby, the first object and the second object can be identified with priority given to the detection result of the object by the first sensor.
 (3)(2)において、前記第2情報は、さらに、前記第2物体の占有領域を示し、前記情報選択部は、前記第2物体の占有領域の少なくとも一部の領域が前記検出可能領域と重複する前記第2物体を除外してもよい。 (3) In (2), the second information further indicates an occupied area of the second object, and the information selection unit determines whether at least a part of the occupied area of the second object is the detectable area. may exclude the second objects that overlap with .
 この構成によると、第2物体の占有領域の一部が検出可能領域と重複する場合に、第2物体を除外することができる。これにより、第1センサによる物体の検出結果を優先して、第1物体及び第2物体の同定を行うことができる。 According to this configuration, the second object can be excluded when part of the area occupied by the second object overlaps the detectable area. Thereby, the first object and the second object can be identified with priority given to the detection result of the object by the first sensor.
 (4)(1)から(3)のいずれかにおいて、前記同定部は、同一の物体であると同定された前記第1物体及び前記第2物体の中から前記第1物体を優先して選択し、前記車載装置は、前記同定部が選択した物体の位置に基づいて、前記追跡結果を修正する物体追跡部をさらに備えてもよい。 (4) In any one of (1) to (3), the identification unit preferentially selects the first object from among the first object and the second object identified as being the same object. The in-vehicle device may further include an object tracking unit that corrects the tracking result based on the position of the object selected by the identification unit.
 この構成によると、第1物体を優先して連続的に物体を追跡した上で、第1物体及び第2物体の同定を行うことができる。 According to this configuration, the first object can be given priority and the objects can be continuously tracked, and then the first object and the second object can be identified.
 (5)(4)において、前記同定部は、前記追跡結果に基づいて設定される設定領域内に含まれる前記第1物体及び前記第2物体のうち、前記追跡結果が示す位置に最も近い物体を選択してもよい。 (5) In (4), the identification unit selects an object closest to the position indicated by the tracking result, out of the first object and the second object included in a set area set based on the tracking result. may be selected.
 この構成によると、設定領域内に含まれる物体のうち追跡結果が示す位置に最も近い位置の物体が選択される。これにより、物体の位置を滑らかに接続した連続性の高い物体追跡を行うことができる。 According to this configuration, the object closest to the position indicated by the tracking result is selected from among the objects included in the set area. This makes it possible to perform highly continuous object tracking in which the positions of objects are smoothly connected.
 (6)(5)において、前記物体追跡部は、前記設定領域内に含まれる前記第1物体及び前記第2物体の位置を確率的に重み付けした位置を算出することにより、前記追跡結果を更新してもよい。 (6) In (5), the object tracking unit updates the tracking result by calculating probabilistically weighted positions of the first object and the second object included in the set area. You may
 この構成によると、設定領域内に複数の物体が存在する場合であっても、確率的に重み付けされた物体の位置に基づいて追跡結果を更新することができるため、物体の位置を滑らかに接続した連続性の高い物体追跡を行うことができる。 According to this configuration, even if multiple objects exist within the set area, the tracking results can be updated based on the probabilistically weighted positions of the objects, so the positions of the objects can be connected smoothly. It is possible to perform highly continuous object tracking.
 (7)(1)から(6)のいずれかにおいて、前記車載装置は、前記追跡結果に基づいて設定される設定領域内に前記第2物体が含まれない場合に、前記追跡結果が示す位置の情報を、前記車両外の装置への送信対象として決定する送信対象決定部をさらに備えてもよい。 (7) In any one of (1) to (6), the in-vehicle device detects the position indicated by the tracking result when the second object is not included in the set area set based on the tracking result. may be further provided with a transmission target determination unit that determines the information as a transmission target to the device outside the vehicle.
 この構成によると、設定領域内に第2物体が存在する場合には、追跡結果が示す位置の情報を車両外の装置へ送信しないようにすることができる。このような情報は第2情報として他車両が送信しているため、重複して送信する必要がない。これにより、不要な情報の送信を抑制し、通信トラフィック量を抑えることができる。 According to this configuration, when the second object exists within the set area, it is possible not to transmit the position information indicated by the tracking result to the device outside the vehicle. Since such information is transmitted by other vehicles as the second information, there is no need to transmit it redundantly. As a result, transmission of unnecessary information can be suppressed, and the amount of communication traffic can be suppressed.
 (8)(1)から(7)のいずれかにおいて、前記第1情報は、さらに、前記第1物体の検出時刻、移動速度及び移動方向を示し、前記第2情報は、さらに、前記第2物体の検出時刻、移動速度及び移動方向を示し、前記車載装置は、前記第1情報及び前記第2情報に基づいて、前記第2物体の位置を補正する補正部をさらに備えてもよい。 (8) In any one of (1) to (7), the first information further indicates the detection time, moving speed and moving direction of the first object, and the second information further indicates the second The detection time, moving speed, and moving direction of the object may be indicated, and the in-vehicle device may further include a correction unit that corrects the position of the second object based on the first information and the second information.
 この構成によると、第1物体の検出時刻と第2物体の検出時刻とのずれを考慮して、第2物体の位置を補正することができる。これにより、同じ時刻における第1物体及び第2物体の検出位置に基づいて、第1物体及び第2物体を同定することができる。これにより、第1物体と第2物体とを正確に同定することができる。 According to this configuration, the position of the second object can be corrected in consideration of the deviation between the detection time of the first object and the detection time of the second object. Thereby, the first object and the second object can be identified based on the detected positions of the first object and the second object at the same time. Thereby, the first object and the second object can be accurately identified.
 (9)本開示の他の実施形態に係る同定方法は、車両に搭載される車載装置による物体の同定方法であって、前記車両に搭載された第1センサにより検出された第1物体の位置を示す第1情報と、前記車両外の第2センサにより検出された第2物体の位置を示す第2情報と、前記第1物体又は前記第2物体の位置の追跡結果とに基づいて、前記第1物体及び前記第2物体の同定を行うステップを含む。 (9) An identification method according to another embodiment of the present disclosure is a method of identifying an object using an in-vehicle device mounted on a vehicle, wherein the position of the first object detected by a first sensor mounted on the vehicle is , second information indicating the position of a second object detected by a second sensor outside the vehicle, and the tracking result of the position of the first object or the second object, the The step of identifying a first object and said second object is included.
 この構成は、上述の車載装置における特徴的な処理をステップとして含む。このため、この構成によると、上述の車載装置と同様の作用および効果を奏することができる。 This configuration includes the characteristic processing of the above-described in-vehicle device as steps. Therefore, according to this configuration, it is possible to obtain the same functions and effects as those of the vehicle-mounted device described above.
 (10)本開示の他の実施形態に係るコンピュータプログラムは、車両に搭載されるコンピュータを、前記車両に搭載された第1センサにより検出された第1物体の位置を示す第1情報と、前記車両外の第2センサにより検出された第2物体の位置を示す第2情報と、前記第1物体又は前記第2物体の位置の追跡結果とに基づいて、前記第1物体及び前記第2物体の同定を行う同定部として機能させる。 (10) A computer program according to another embodiment of the present disclosure causes a computer mounted on a vehicle to perform first information indicating the position of a first object detected by a first sensor mounted on the vehicle; The first object and the second object based on second information indicating the position of the second object detected by a second sensor outside the vehicle and the tracking result of the position of the first object or the second object. function as an identification unit that identifies the
 この構成によると、コンピュータを、上述の車載装置として機能させることができる。このため、上述の車載装置と同様の作用および効果を奏することができる。 According to this configuration, the computer can function as the in-vehicle device described above. Therefore, it is possible to obtain the same functions and effects as those of the vehicle-mounted device described above.
 (11)本開示の他の実施形態に係る車載システムは、車両に搭載される車載システムであって、前記車両外のセンサにより検出された物体の位置を示す情報を受信する受信部と、前記車両の周囲の物体を追跡する物体追跡部と、前記車両に搭載されたセンサにより検出された物体の位置を示す情報と、前記受信部が受信した情報と、前記物体追跡部による追跡結果とに基づいて、前記車両に搭載されたセンサにより検出された物体、及び前記車両外のセンサにより検出された物体の同定を行う同定部とを備える。 (11) An in-vehicle system according to another embodiment of the present disclosure is an in-vehicle system mounted in a vehicle, and includes a receiving unit that receives information indicating the position of an object detected by a sensor outside the vehicle; An object tracking unit that tracks an object around the vehicle, information indicating the position of the object detected by the sensor mounted on the vehicle, information received by the receiving unit, and a tracking result of the object tracking unit. and an identification unit that identifies an object detected by a sensor mounted on the vehicle and an object detected by a sensor outside the vehicle according to the above.
 この構成によると、物体の位置の追跡結果を用いて、車両に搭載されたセンサにより検出された物体、及び車両外のセンサにより検出された物体を同定する。このため、過去からの物体の位置の連続性を考慮して、上記した2種類の物体を正確に同定することができる。これにより、1つの物体を複数の物体であると誤認識することを防止することができるため、不要な車両の走行制御の発生を防止することができ、車両の走行制御を効率的に行うことができる。 According to this configuration, the object position tracking results are used to identify the object detected by the sensor mounted on the vehicle and the object detected by the sensor outside the vehicle. Therefore, considering the continuity of the positions of the objects from the past, the above two types of objects can be accurately identified. As a result, it is possible to prevent one object from being erroneously recognized as a plurality of objects, thereby preventing the occurrence of unnecessary running control of the vehicle and efficiently performing the running control of the vehicle. can be done.
 [本開示の実施形態の詳細]
 以下、本開示の実施形態について、図面を参照しながら説明する。なお、以下で説明する実施形態は、いずれも本開示の一具体例を示すものである。以下の実施形態で示される数値、形状、材料、構成要素、構成要素の配置位置および接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定するものではない。また、以下の実施形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意に付加可能な構成要素である。また、各図は、模式図であり、必ずしも厳密に図示されたものではない。
[Details of the embodiment of the present disclosure]
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. It should be noted that each of the embodiments described below is a specific example of the present disclosure. Numerical values, shapes, materials, components, arrangement positions and connection forms of components, steps, order of steps, and the like shown in the following embodiments are examples and do not limit the present disclosure. In addition, among the components in the following embodiments, components not described in independent claims are components that can be added arbitrarily. Each figure is a schematic diagram and is not necessarily strictly illustrated.
 また、同一の構成要素には同一の符号を付す。それらの機能および名称も同様であるため、それらの説明は適宜省略する。 Also, the same components are given the same reference numerals. Since their functions and names are also the same, description thereof will be omitted as appropriate.
 〔運転支援システムの全体構成〕
 図1は、本開示の実施形態に係る運転支援システムの構成の一例を示す図である。
 図1を参照して、運転支援システムは、道路5上を走行する車両1、2、3、6と、歩行者4とを含む。
 車両1は、後述する車載システムを備え、道路5の走行車線を走行する自車両である。
[Overall configuration of driving support system]
FIG. 1 is a diagram illustrating an example configuration of a driving assistance system according to an embodiment of the present disclosure.
Referring to FIG. 1, the driving support system includes vehicles 1, 2, 3 and 6 traveling on road 5 and pedestrian 4. As shown in FIG.
The vehicle 1 is a self-vehicle equipped with an in-vehicle system, which will be described later, and traveling in the lane of the road 5 .
 車両2は、道路5の対向車線を走行する車両である。車両2は、物体の検出機能及び検出結果の送信機能を備えており、車両1にとっての他者である。
 車両3は、走行車線上で、車両1の左斜め前方を走行する車両である。
 車両6は、走行車線上で、車両1の後方を走行する車両である。
 歩行者4は、車両3の左斜め前方に位置し、車両1からは直接見ることのできない領域(死角領域)に存在する。
Vehicle 2 is a vehicle that runs on the opposite lane of road 5 . The vehicle 2 is equipped with an object detection function and a detection result transmission function, and is the other party to the vehicle 1 .
The vehicle 3 is a vehicle that runs diagonally to the left of the vehicle 1 on the driving lane.
The vehicle 6 is a vehicle that travels behind the vehicle 1 on the travel lane.
The pedestrian 4 is positioned diagonally to the left of the vehicle 3 and is present in an area (blind spot area) that cannot be directly seen from the vehicle 1 .
 〔車載システムのハードウェア構成〕
 図2は、本開示の実施形態に係る車両1に搭載される車載システムのハードウェア構成の一例を示す図である。
[Hardware configuration of in-vehicle system]
FIG. 2 is a diagram showing an example of a hardware configuration of an in-vehicle system installed in the vehicle 1 according to the embodiment of the present disclosure.
 図2を参照して、車両1に搭載される車載システム10は、車載センサ101A、101Bと、制御装置120と、中継装置130と、通信装置140とを備える。 With reference to FIG. 2, the in-vehicle system 10 mounted in the vehicle 1 includes in-vehicle sensors 101A and 101B, a control device 120, a relay device 130, and a communication device 140.
 車載センサ101A、101Bは、例えば、車載カメラ、LiDAR(Light Detection and Ranging)装置、ミリ波レーダ装置などのセンサであり、車両1の周囲に存在する物体の位置を観測する。なお、車載センサ101A、101Bは、物体が存在する領域を観測するものであってもよい。 The in-vehicle sensors 101A and 101B are, for example, sensors such as in-vehicle cameras, LiDAR (Light Detection and Ranging) devices, millimeter wave radar devices, etc., and observe the positions of objects existing around the vehicle 1. Note that the vehicle-mounted sensors 101A and 101B may be those that observe an area in which an object exists.
 中継装置130は、車載システム10を構成する装置間で送受信されるデータを中継する。中継装置130は、例えば、ECU(Electronic Control Unit)により構成される。ECUは、CPU(Central Processing Unit)などのプロセッサとメモリを備えるコンピュータの一種である。 The relay device 130 relays data transmitted and received between devices that configure the in-vehicle system 10 . The relay device 130 is configured by, for example, an ECU (Electronic Control Unit). An ECU is a type of computer that includes a processor such as a CPU (Central Processing Unit) and a memory.
 制御装置120は、車両1の運転を制御する。車両1は、例えば、自動運転用のECUにより構成される。制御装置120は、例えば、車両1のアクセル開度、ブレーキ量、操舵角等を制御する。 The control device 120 controls the operation of the vehicle 1. The vehicle 1 is configured by, for example, an ECU for automatic driving. The control device 120 controls, for example, the accelerator opening, brake amount, steering angle, etc. of the vehicle 1 .
 通信装置140は、車両1の外部の装置(例えば、車両2や路側通信機)との間でデータの送受信を行う。通信装置140は、例えば、TCU(Telematics Control Unit)により構成される。 The communication device 140 transmits and receives data to and from devices external to the vehicle 1 (for example, the vehicle 2 and the roadside communication device). The communication device 140 is configured by, for example, a TCU (Telematics Control Unit).
 車載センサ101A、101B、制御装置120、中継装置130及び通信装置140は、CAN(Controller Area Network)又はEthernet(登録商標)等の車載ネットワークにより接続される。 The in-vehicle sensors 101A and 101B, the control device 120, the relay device 130, and the communication device 140 are connected by an in-vehicle network such as CAN (Controller Area Network) or Ethernet (registered trademark).
 〔車載システムの機能構成〕
 図3は、図2に示した車載システム10の機能的な構成を示す図である。
 車載システム10は、車載センサ101と、物体検出部102と、死角領域管理部103と、有効物標第一選択部104と、物体追跡部105と、有効物標第二選択部106と、物標受信部107と、時刻ずれ補正部108と、送信物標選択部109と、物標送信部110と、運転制御部111とを備える。
[Functional configuration of in-vehicle system]
FIG. 3 is a diagram showing a functional configuration of the in-vehicle system 10 shown in FIG. 2. As shown in FIG.
The in-vehicle system 10 includes an in-vehicle sensor 101, an object detection unit 102, a blind area management unit 103, an effective target first selection unit 104, an object tracking unit 105, an effective target second selection unit 106, an object It includes a target receiver 107 , a time shift corrector 108 , a transmission target selector 109 , a target transmitter 110 and an operation controller 111 .
 車載センサ101は、図2に示した車載センサ101A、101Bを含む。また、車載センサ101は、さらに、車両1の位置を検出するセンサ(例えば、GPS(Global Positioning System)受信機)を含む。 The in-vehicle sensor 101 includes the in-vehicle sensors 101A and 101B shown in FIG. In-vehicle sensor 101 further includes a sensor that detects the position of vehicle 1 (for example, a GPS (Global Positioning System) receiver).
 物体検出部102、死角領域管理部103、物体追跡部105及び運転制御部111は、図2に示した制御装置120のプロセッサ上で、制御装置120のメモリに記憶された所定のコンピュータプログラムを実行することにより実現される機能的な処理部である。 The object detection unit 102, the blind area management unit 103, the object tracking unit 105, and the operation control unit 111 execute a predetermined computer program stored in the memory of the control device 120 on the processor of the control device 120 shown in FIG. It is a functional processing unit realized by
 有効物標第一選択部104、有効物標第二選択部106、時刻ずれ補正部108及び送信物標選択部109は、図2に示した中継装置130のプロセッサ上で、中継装置130のメモリに記憶された所定のコンピュータプログラムを実行することにより実現される機能的な処理部である。 The first effective target selection unit 104, the second effective target selection unit 106, the time lag correction unit 108, and the transmission target selection unit 109 are implemented in the memory of the relay device 130 on the processor of the relay device 130 shown in FIG. It is a functional processing unit realized by executing a predetermined computer program stored in the .
 物標受信部107及び物標送信部110は、図2に示した通信装置140が備える通信モジュールである。 The target receiving unit 107 and the target transmitting unit 110 are communication modules included in the communication device 140 shown in FIG.
 〔物体検出部102について〕
 物体検出部102は、車載センサ101から車載センサ101が観測した物体の領域(以下、「物体観測領域」という。)を取得し、車両1の周辺に存在する物体を検出する。物体検出部102は、例えば、物体領域の中心位置を物体の位置として検出してもよいし、物体領域のうち車両1に最も近い位置を物体の位置として検出してもよい。また、物体検出部102は、物体の移動速度及び移動方向も検出するものとする。物体の移動速度及び移動方向は、速度センサ及びジャイロセンサ等の車載センサ101から直接取得してもよいし、物体の位置の時間変化から算出してもよい。
[Regarding the object detection unit 102]
The object detection unit 102 acquires an area of an object observed by the in-vehicle sensor 101 (hereinafter referred to as an “object observation area”) from the in-vehicle sensor 101 and detects an object existing around the vehicle 1 . For example, the object detection unit 102 may detect the center position of the object region as the position of the object, or may detect the position of the object region closest to the vehicle 1 as the position of the object. It is also assumed that the object detection unit 102 also detects the moving speed and moving direction of the object. The moving speed and moving direction of the object may be obtained directly from the in-vehicle sensor 101 such as a speed sensor and a gyro sensor, or may be calculated from changes in the position of the object over time.
 〔死角領域管理部103について〕
 死角領域管理部103は、車載センサ101が観測した物体観測領域及び車両1の位置に基づいて、車両1の死角領域を検出し、検出した死角領域を管理する。
[Regarding the blind area management unit 103]
The blind area management unit 103 detects the blind area of the vehicle 1 based on the object observation area observed by the in-vehicle sensor 101 and the position of the vehicle 1, and manages the detected blind area.
 図4は、死角領域管理部103が管理する死角領域を含むグリッドマップの一例を示す図である。
 図4を参照して、死角領域管理部103は、車載センサ101が検出した車両1の位置に基づいて、車両1を含む車両1の周囲の所定範囲のマップ情報をグリッドマップ30として取得する。グリッドマップ30は、例えば、車載センサ101A、101Bによる物体の検出範囲を含むように定められる。グリッドマップ30は、上記所定範囲を所定サイズの複数のグリッド31に区切ったものである。各グリッド31のサイズは、均一であってもよいし、場所ごとに異なっていてもよい。例えば、グリッド31のサイズは、車載センサ101A、101Bの物理量の観測精度に応じて異なっていてもよく、車両1の近傍の観測精度の高い領域ほどグリッド31のサイズが小さくてもよい。
FIG. 4 is a diagram showing an example of a grid map including blind areas managed by the blind area management unit 103. As shown in FIG.
Referring to FIG. 4 , blind spot area management unit 103 acquires map information of a predetermined range around vehicle 1 including vehicle 1 as grid map 30 based on the position of vehicle 1 detected by in-vehicle sensor 101 . The grid map 30 is defined, for example, so as to include an object detection range by the in-vehicle sensors 101A and 101B. The grid map 30 is obtained by partitioning the predetermined range into a plurality of grids 31 of a predetermined size. The size of each grid 31 may be uniform or may vary from place to place. For example, the size of the grid 31 may differ according to the observation accuracy of the physical quantity of the in-vehicle sensors 101A and 101B, and the size of the grid 31 may be smaller in areas near the vehicle 1 where the observation accuracy is higher.
 死角領域管理部103は、車載センサ101が観測した物体観測領域を含むグリッド31である物体観測領域32A、32B、32Cを、グリッドマップ30上に示す。物体観測領域32A、物体観測領域32B、及び物体観測領域32Cは、図1に示した車両3、車両2、及び車両6にそれぞれ対応する領域である。 The blind spot area management unit 103 indicates on the grid map 30 object observation areas 32A, 32B, and 32C, which are grids 31 including the object observation areas observed by the vehicle-mounted sensor 101. Object observation area 32A, object observation area 32B, and object observation area 32C are areas corresponding to vehicle 3, vehicle 2, and vehicle 6 shown in FIG.
 また、死角領域管理部103は、車両1と物体観測領域32A、32B、32Cとの位置関係から、物体観測領域32A、32B、32Cの存在により車両1から死角となっている死角領域を算出する。死角領域管理部103は、算出した死角領域を含むグリッド31である死角領域33A、33B、33Cを、グリッドマップ30上に示す。 In addition, the blind area management unit 103 calculates blind areas that are blind spots from the vehicle 1 due to the existence of the object observation areas 32A, 32B, and 32C from the positional relationship between the vehicle 1 and the object observation areas 32A, 32B, and 32C. . The blind area management unit 103 indicates on the grid map 30 blind area areas 33A, 33B, and 33C, which are grids 31 including the calculated blind area.
 〔物標受信部107について〕
 物標受信部107は、車両2がブロードキャストした物標を受信する。物標とは、物体の位置を含む物体の情報を示すものとする。つまり、物標受信部107は、車両2が検出した物体の情報及び車両2の情報を物標として受信する。ここで、車両2から受信した物標には、物体(車両2の検出物体及び車両2自身)の位置、検出時刻、移動速度及び移動方向の情報が含まれるものとする。
[Regarding Target Receiving Unit 107]
The target receiving unit 107 receives targets broadcast by the vehicle 2 . A target indicates information about an object including the position of the object. That is, the target receiving unit 107 receives information on the object detected by the vehicle 2 and information on the vehicle 2 as targets. Here, it is assumed that the target received from the vehicle 2 includes information on the position, detection time, moving speed, and moving direction of the object (the object detected by the vehicle 2 and the vehicle 2 itself).
 〔時刻ずれ補正部108について〕
 時刻ずれ補正部108は、物標受信部107が受信した物標が示す物体の検出時刻と、物体検出部102が検出した物体の検出時刻とのずれを補正する。つまり、時刻ずれ補正部108は、物体検出部102が検出した物体の検出時刻において、車両2が検出したであろう物体の位置を推定することにより、検出時刻のずれを補正する。以下、図面を参照して時刻ずれ補正部108による検出時刻のずれの補正方法について説明する。
[Regarding the time lag correction unit 108]
The time shift correction unit 108 corrects the shift between the detection time of the object indicated by the target received by the target receiving unit 107 and the detection time of the object detected by the object detection unit 102 . That is, the time shift correction unit 108 corrects the detection time shift by estimating the position of the object that the vehicle 2 would have detected at the detection time of the object detected by the object detection unit 102 . A method of correcting the detection time shift by the time shift correction unit 108 will be described below with reference to the drawings.
 図5は、物標受信部107が受信した物標のリストの一例を示す図である。物標受信部107が受信した物標のリスト(以下、「受信物標リスト」という。)には、X個の物標が含まれる。各物標は、物体の検出時刻、検出位置(位置座標)、移動速度及び移動方向を含む。検出位置は、例えば、緯度及び経度で示される。また、移動方向は、例えば、北を0度としたときの方位角で示される。例えば、物標番号が物標1の物標の検出時刻はT1、検出位置は(N1,E1)、移動速度はV1、移動方向はD1である。 FIG. 5 is a diagram showing an example of a target list received by the target receiving unit 107. FIG. The list of targets received by the target receiving unit 107 (hereinafter referred to as "received target list") includes X targets. Each target includes detection time, detection position (position coordinates), moving speed, and moving direction of the object. The detected position is indicated by latitude and longitude, for example. Also, the movement direction is indicated, for example, by an azimuth angle when north is 0 degrees. For example, the detection time of the target with the target number 1 is T1, the detection position is (N1, E1), the moving speed is V1, and the moving direction is D1.
 図6は、車両の位置関係の一例を示す図である。図6を参照して、車両1及び車両2の双方が車両7を観測したものとする。車両2は、車両7の物標をブロードキャストし、車両1が当該物標を受信する。 FIG. 6 is a diagram showing an example of the positional relationship of vehicles. Referring to FIG. 6, it is assumed that both vehicle 1 and vehicle 2 observe vehicle 7 . Vehicle 2 broadcasts the target of vehicle 7 and vehicle 1 receives the target.
 図7は、車両が観測した物体の位置の一例を示す図である。検出位置12Dは、車両1による車両7の検出位置を示す。検出位置22Dは、車両2による車両7の検出位置を示す。ここで、車両1による車両7の検出時刻は、00時00分00.500秒とし、車両2による車両7の検出時刻は00時00分00.200秒とする。つまり、2つの検出時刻の間には、車両2から車両1への通信遅延等の理由により300ミリ秒のずれがある。このため、時刻ずれ補正部108は、受信物標リストに含まれる車両7の移動速度及び移動方向に基づいて、300ミリ秒間の車両7の移動量(移動方向及び移動距離)を算出する。時刻ずれ補正部108は、検出位置22Dを算出した移動量だけ移動させることにより、検出位置22Eを算出する。これにより、時刻ずれ補正部108は、物体検出部102による車両7の検出時刻00時00分00.500秒において、車両2が検出したであろう車両7の検出位置22Eを推定する。時刻ずれ補正部108は、受信物標リストに含まれる車両7の物標について、検出時刻及び位置座標を検出時刻00時00分00.500秒及び検出位置22Eの位置座標にそれぞれ書き換えることにより、受信物標リストを補正する。これにより、時刻ずれ補正部108は、受信物標リストに含まれる物標の時刻ずれを補正する。 FIG. 7 is a diagram showing an example of the positions of objects observed by the vehicle. A detected position 12</b>D indicates the detected position of the vehicle 7 by the vehicle 1 . A detected position 22</b>D indicates the detected position of the vehicle 7 by the vehicle 2 . Here, the detection time of the vehicle 7 by the vehicle 1 is assumed to be 00:00:00.500, and the detection time of the vehicle 7 by the vehicle 2 is assumed to be 00:00:00.200. That is, there is a delay of 300 milliseconds between the two detection times due to reasons such as communication delay from the vehicle 2 to the vehicle 1 . Therefore, the time lag correction unit 108 calculates the movement amount (moving direction and moving distance) of the vehicle 7 for 300 milliseconds based on the moving speed and moving direction of the vehicle 7 included in the received target list. The time lag correction unit 108 calculates the detection position 22E by moving the detection position 22D by the calculated movement amount. Thereby, the time shift correction unit 108 estimates the detection position 22E of the vehicle 7 that would have been detected by the vehicle 2 at the detection time 00:00:00.500 of the vehicle 7 by the object detection unit 102 . The time lag correction unit 108 rewrites the detection time and the position coordinates of the target of the vehicle 7 included in the received target list to the detection time 00:00:00.500 and the position coordinates of the detection position 22E. Correct the received target list. Thereby, the time lag correction unit 108 corrects the time lag of targets included in the received target list.
 〔有効物標第一選択部104について〕
 有効物標第一選択部104は、死角領域管理部103が管理するグリッドマップと、時刻ずれ補正部108における時刻ずれ補正後の受信物標リストとに基づいて、車載センサ101による物体の検出可能領域内に存在する他者(ここでは、車両2)が検出した物体の物標を、受信物標リストから除外する。有効物標第一選択部104は、除外されずに残った物標を、受信物標リストから選択する(有効物標第一選択処理)。以下、図面を参照して有効物標第一選択部104による有効物標第一選択処理について説明する。
[Regarding the effective target first selection unit 104]
The first effective target selection unit 104 enables detection of objects by the in-vehicle sensor 101 based on the grid map managed by the blind spot area management unit 103 and the received target list after time shift correction in the time shift correction unit 108. A target of an object detected by another person (here, the vehicle 2) existing in the area is excluded from the received target list. The effective target first selection unit 104 selects targets remaining without being excluded from the received target list (effective target first selection process). The effective target first selection processing by the effective target first selection unit 104 will be described below with reference to the drawings.
 有効物標第一選択部104は、例えば、図4に示したグリッドマップ30を取得する。グリッドマップ30において、物体観測領域32A、32B、32C及び死角領域33A、33B、33C以外の領域をエンプティ領域34と呼ぶものとする。死角領域33A、33B、33C以外の領域では、車載センサ101は、物体を検出可能である。このため、物体観測領域32A、32B、32C及びエンプティ領域34を合わせた領域が、車載センサ101による物体の検出可能領域となる。ただし、車両1の存在する領域もエンプティ領域34に含まれるものとする。 The first valid target selection unit 104 acquires, for example, the grid map 30 shown in FIG. In the grid map 30, an area other than the object observation areas 32A, 32B, 32C and the blind area 33A, 33B, 33C is called an empty area 34. FIG. The in-vehicle sensor 101 can detect objects in areas other than the blind spot areas 33A, 33B, and 33C. Therefore, the object observation area 32A, 32B, 32C and the empty area 34 are combined to be an object detectable area by the in-vehicle sensor 101 . However, it is assumed that the area where the vehicle 1 exists is also included in the empty area 34 .
 図8及び図9は、有効物標第一選択処理の一例を説明するための図である。図8及び図9は、グリッドマップ30を示している。 FIGS. 8 and 9 are diagrams for explaining an example of the effective target first selection process. 8 and 9 show the grid map 30. FIG.
 図8を参照して、有効物標第一選択部104は、図4に示したグリッドマップ30に、時刻ずれ補正後の受信物標リストに含まれる物体の検出位置を重ね合わせる。自己位置21は、受信物標リストに含まれる車両2の位置を示す。検出位置22A、22B、22C、22D、22Eは、車両2が検出した物体の位置を示す。検出位置22Aは、歩行者4の検出位置を示しており、検出位置22B、22Cは、車両3の検出位置を示している。ここでは、車両3の検出位置が2つ検出されているものとする。検出位置22Dは、車両1の検出位置を示している。検出位置22Eは、誤検出された検出位置を示している。 Referring to FIG. 8, the first valid target selection unit 104 superimposes the detected positions of objects included in the received target list after time lag correction on the grid map 30 shown in FIG. Self position 21 indicates the position of vehicle 2 included in the received target list. Detection positions 22A, 22B, 22C, 22D, and 22E indicate positions of objects detected by the vehicle 2 . A detection position 22A indicates the detection position of the pedestrian 4, and detection positions 22B and 22C indicate the detection positions of the vehicle 3. FIG. Here, it is assumed that two detection positions of the vehicle 3 are detected. A detected position 22</b>D indicates the detected position of the vehicle 1 . A detection position 22E indicates an erroneously detected detection position.
 図9を参照して、有効物標第一選択部104は、検出位置22A、22B、22C、22D、22Eのうち、グリッドマップ30の検出可能領域内に存在する検出位置22C、22D、22Eを除外する。つまり、有効物標第一選択部104は、検出位置22Cを、物体観測領域32Aと重なるため除外する。また、有効物標第一選択部104は、検出位置22D、22Eを、エンプティ領域34と重なるため除外する。有効物標第一選択部104は、除外されなかった残りの検出位置22A、22Bを示す物体の情報を有効物標として選択する。また、有効物標第一選択部104は、自己位置21を示す車両2の情報を有効物標として選択する。 Referring to FIG. 9, effective target first selection unit 104 selects detection positions 22C, 22D, and 22E existing within the detectable area of grid map 30 among detection positions 22A, 22B, 22C, 22D, and 22E. exclude. That is, the first valid target selection unit 104 excludes the detection position 22C because it overlaps the object observation area 32A. In addition, the first valid target selection unit 104 excludes the detection positions 22D and 22E because they overlap the empty region 34 . The first valid target selection unit 104 selects the information of the object indicating the remaining detection positions 22A and 22B that have not been excluded as valid targets. Also, the first effective target selection unit 104 selects the information of the vehicle 2 indicating the self-position 21 as the effective target.
 〔有効物標第二選択部106について〕
 有効物標第二選択部106は、物体追跡部105による物体の追跡結果と、有効物標第一選択部104が選択した有効物標とに基づいて、物体検出部102が検出した物体と、有効物標が示す車両2が検出した物体との同定を行い、有効物標第一選択部104が選択した有効物標の中から、さらに、有効な物標を選択する(有効物標第二選択処理)。なお、物体Aと物体Bを同定することは、物体Aと物体Bが同一物体であることを判別することを意味する。ここで、物体追跡部105による物体の追跡処理については後述する。以下、図面を参照して有効物標第二選択部106による有効物標第二選択処理について説明する。
[Regarding the second effective target selection unit 106]
The effective target second selection unit 106 selects the object detected by the object detection unit 102 based on the tracking result of the object by the object tracking unit 105 and the effective target selected by the effective target first selection unit 104, Identification with the object detected by the vehicle 2 indicated by the effective target is performed, and an effective target is further selected from the effective targets selected by the first effective target selection unit 104 (second effective target selection process). Note that identifying the object A and the object B means determining that the object A and the object B are the same object. Here, object tracking processing by the object tracking unit 105 will be described later. The effective target second selection processing by the effective target second selection unit 106 will be described below with reference to the drawings.
 図10は、物体追跡部105による物体の追跡結果の一例を示す図である。追跡結果には、物体追跡部105が過去の物体の追跡結果に基づいて予測した現在(現フレーム)の物体の追跡位置41A、41B、41Cが含まれる。また、追跡結果には、物体検出部102が検出した現フレームの物体の検出位置12A、12B、12Cが含まれる。さらに、追跡結果には、追跡位置41A、41B、41Cのそれぞれについて物体を同定するためのバリデーションゲート51A、51B、51Cが含まれる。バリデーションゲートは物体を同定するための境界を示し、同一のバリデーションゲートに含まれる複数の物体は、同一の物体であると同定される。ここでは、追跡位置41A、41B、41Cを中心位置としたバリデーションゲートが設定される。バリデーションゲートの決定方法については後述する。 FIG. 10 is a diagram showing an example of an object tracking result by the object tracking unit 105. FIG. The tracking results include current (current frame) object tracking positions 41A, 41B, and 41C predicted by the object tracking unit 105 based on past object tracking results. Further, the tracking result includes detection positions 12A, 12B, and 12C of objects in the current frame detected by the object detection unit 102 . Further, the tracking results include validation gates 51A, 51B, 51C for identifying objects for each of the tracking locations 41A, 41B, 41C. A validation gate indicates a boundary for identifying an object, and multiple objects included in the same validation gate are identified as the same object. Here, validation gates centered on the tracking positions 41A, 41B, and 41C are set. A method of determining the validation gate will be described later.
 図11及び図12は、有効物標第二選択処理の一例を説明するための図である。
 図11を参照して、有効物標第二選択部106は、図10に示した物体の追跡結果に、有効物標第一選択部104が選択した有効物標が示す車両2の自己位置21及び物体の検出位置22A、22Bを重ね合わせる。
11 and 12 are diagrams for explaining an example of the second valid target selection process.
Referring to FIG. 11, the second effective target selection unit 106 adds the object tracking result shown in FIG. and object detection positions 22A and 22B are superimposed.
 図12を参照して、有効物標第二選択部106は、バリデーションゲート51A、51B、51Cの各々について、同一のバリデーションゲート内に複数の物体が存在する場合には、それらが同一の物体であると同定する。例えば、有効物標第二選択部106は、バリデーションゲート51B内の検出位置12Bに対応した物体と、検出位置22Bに対応した物体とは同一の物体であると同定する。また、有効物標第二選択部106は、バリデーションゲート51C内の自己位置21に対応した車両2と、検出位置12Cに対応した物体とは同一の物体であると同定する。 Referring to FIG. 12, for each of validation gates 51A, 51B, and 51C, if a plurality of objects exist within the same validation gate, valid target second selection unit 106 determines whether they are the same object. identify it as For example, the second valid target selection unit 106 identifies that the object corresponding to the detection position 12B in the validation gate 51B and the object corresponding to the detection position 22B are the same object. Also, the second valid target selection unit 106 identifies that the vehicle 2 corresponding to the self-position 21 within the validation gate 51C and the object corresponding to the detection position 12C are the same object.
 有効物標第二選択部106は、同一であると判断された複数の物体を含むバリデーションゲートについて、バリデーションゲート内で車両2が検出した物体の中から有効な物体を選択することにより、物体の有効物標を選択する。具体的には、有効物標第二選択部106は、バリデーションゲート内の追跡位置から各物体までのマハラノビス距離を算出する。有効物標第二選択部106は、追跡位置から物体検出部102が検出した物体までのマハラノビス距離よりも、追跡位置からのマハラノビス距離が小さい車両2が検出した物体を選択し、選択した物体の物標を有効であると判断する。また、有効物標第二選択部106は、追跡位置から物体検出部102が検出した物体までのマハラノビス距離と比較して、追跡位置からのマハラノビス距離が大きいか等しい車両2が検出した物体の物標を無効であると判断する。 Valid target second selection unit 106 selects a valid object from objects detected by vehicle 2 in the validation gate including a plurality of objects determined to be the same, thereby selecting the object. Select an effective target. Specifically, the second valid target selection unit 106 calculates the Mahalanobis distance from the tracking position in the validation gate to each object. A second valid target selection unit 106 selects an object detected by the vehicle 2 whose Mahalanobis distance from the tracking position is smaller than the Mahalanobis distance from the tracking position to the object detected by the object detection unit 102, and detects the selected object. Judge the target as valid. In addition, the second effective target selection unit 106 compares the Mahalanobis distance from the tracking position to the object detected by the object detection unit 102, and determines whether the object detected by the vehicle 2 has a Mahalanobis distance greater than or equal to the tracking position. invalidate the mark.
 例えば、バリデーションゲート51Bについては、追跡位置41Bから検出位置12Bまでのマハラノビス距離よりも、追跡位置41Bから検出位置22Bまでのマハラノビス距離が大きい。このため、有効物標第二選択部106は、検出位置22Bに対応する物体の物標を無効であると判断する。一方、バリデーションゲート51Cについては、追跡位置41Cから検出位置12Cまでのマハラノビス距離よりも、追跡位置41Cから自己位置21までのマハラノビス距離が小さい。このため、有効物標第二選択部106は、自己位置21に対応する車両2の物標を有効であると判断する。なお、有効物標第二選択部106は、車両1による、バリデーションゲート51C内の検出位置12Cに対応する物標については、常に有効であると判断する。なお、有効物標第二選択部106は、車両1が検出した物標を選択するものであってもよい。 For example, for the validation gate 51B, the Mahalanobis distance from the tracking position 41B to the detection position 22B is greater than the Mahalanobis distance from the tracking position 41B to the detection position 12B. Therefore, the second valid target selection unit 106 determines that the target of the object corresponding to the detection position 22B is invalid. On the other hand, for the validation gate 51C, the Mahalanobis distance from the tracking position 41C to the self-position 21 is smaller than the Mahalanobis distance from the tracking position 41C to the detection position 12C. Therefore, the second valid target selection unit 106 determines that the target of the vehicle 2 corresponding to the self-position 21 is valid. Note that the second valid target selection unit 106 always determines that the target corresponding to the detected position 12C in the validation gate 51C by the vehicle 1 is valid. Note that the second effective target selection unit 106 may select targets detected by the vehicle 1 .
 検出位置22Aはバリデーションゲートの外にある。このため、有効物標第二選択部106は、検出位置22Aに対応する物体の物標を有効であると判断する。 The detection position 22A is outside the validation gate. Therefore, the second valid target selection unit 106 determines that the target of the object corresponding to the detection position 22A is valid.
 〔バリデーションゲートについて〕
 次に、バリデーションゲートについて説明する。
 図13は、バリデーションゲートを概念的に示した図である。図13は、物体の追跡位置41についてのバリデーションゲートを示した図であり、追跡位置41からのマハラノビス距離がγとなる曲線がバリデーションゲート51として設定される。
[About validation gate]
Next, the validation gate will be explained.
FIG. 13 is a diagram conceptually showing a validation gate. FIG. 13 is a diagram showing a validation gate for a tracking position 41 of an object, and a curve that gives a Mahalanobis distance γ from the tracking position 41 is set as the validation gate 51 .
 また、以下の式1の左辺は追跡位置41からのマハラノビス距離を示し、式1の右辺はバリデーションゲートの閾値γを示す。閾値γは、例えば、逆カイ二乗累積分布に基づいて算出される。 Also, the left side of Equation 1 below indicates the Mahalanobis distance from the tracking position 41, and the right side of Equation 1 indicates the threshold value γ of the validation gate. The threshold γ is calculated, for example, based on the inverse chi-square cumulative distribution.
Figure JPOXMLDOC01-appb-M000001

 ここで、zは、検出位置22の座標を示し、
Figure JPOXMLDOC01-appb-M000002
は、追跡位置41の座標を示し、カルマンフィルタ等を用いて算出される。また、
Figure JPOXMLDOC01-appb-M000003
は、追跡位置41の観測予測誤差の共分散行列を示し、カルマンフィルタ等を用いて算出される。
Figure JPOXMLDOC01-appb-M000001

Here, z indicates the coordinates of the detection position 22,
Figure JPOXMLDOC01-appb-M000002
indicates the coordinates of the tracking position 41 and is calculated using a Kalman filter or the like. also,
Figure JPOXMLDOC01-appb-M000003
indicates the covariance matrix of the observation prediction error of the tracking position 41 and is calculated using a Kalman filter or the like.
 上述したように、有効物標第二選択部106は、検出位置22がバリデーションゲート51の内側に位置する場合には(式1を満たす場合には)、検出位置22に対応する物体と、追跡位置41に対応する物体とが同一の物体であると判断する。一方、有効物標第二選択部106は、検出位置22がバリデーションゲート51の外側に位置する場合には(式1を満たさない場合には)、検出位置22に対応する物体と、追跡位置41に対応する物体とは別の物体であると判断する。 As described above, when the detected position 22 is positioned inside the validation gate 51 (when Expression 1 is satisfied), the valid target second selection unit 106 selects the object corresponding to the detected position 22 and the tracked object. It is determined that the object corresponding to the position 41 is the same object. On the other hand, when the detected position 22 is located outside the validation gate 51 (if Expression 1 is not satisfied), the second valid target selection unit 106 selects the object corresponding to the detected position 22 and the tracking position 41 is determined to be a different object from the corresponding object.
 バリデーションゲート51は、車載センサ101の特性に合わせて調整される。このため、有効物標第二選択部106は、他者から物体の検出位置22が得られるはずであると予測する範囲をバリデーションゲートとして設定することができる。これにより、有効物標第二選択部106は、有効物標第一選択部104が選択した有効物標の中から、有効な物標を選択することができる。 The validation gate 51 is adjusted according to the characteristics of the in-vehicle sensor 101. Therefore, the second valid target selection unit 106 can set a range in which it is predicted that the object detection position 22 should be obtained from others as a validation gate. Thereby, the second effective target selection unit 106 can select an effective target from among the effective targets selected by the first effective target selection unit 104 .
 〔物体追跡部105について〕
 物体追跡部105は、物体検出部102による物体の検出結果と、有効物標第二選択部106により選択された有効物標とに基づいて、車両1の周囲の物体を追跡する。
[Regarding the object tracking unit 105]
The object tracking unit 105 tracks objects around the vehicle 1 based on the result of object detection by the object detection unit 102 and the effective targets selected by the second effective target selection unit 106 .
 図14は、物体追跡処理の一例を説明するための図である。物体追跡部105は、過去の物体の追跡結果に基づいて予測した現フレームの物体の追跡位置41A、41B、41Cを、物体検出部102が検出した物体の物標と、有効物標第二選択部106が選択した有効物標とに基づいて、修正する。 FIG. 14 is a diagram for explaining an example of object tracking processing. The object tracking unit 105 combines the object tracking positions 41A, 41B, and 41C in the current frame predicted based on the past object tracking results with the object targets detected by the object detection unit 102 and the effective target second selection. Correction is made based on the effective targets selected by the unit 106 .
 具体的には、物体追跡部105は、カルマンフィルタなどのフィルタリング処理を用いて予測した現フレームの物体の追跡位置41A、41B、41Cを、物体検出部102が検出した物体の位置及び有効物標第二選択部106が選択した有効物標が示す物体の位置に基づいて修正する。 Specifically, the object tracking unit 105 obtains the object tracking positions 41A, 41B, and 41C of the current frame predicted using a filtering process such as a Kalman filter, based on the position of the object detected by the object detection unit 102 and the effective target number. Correction is performed based on the position of the object indicated by the effective target selected by the second selection unit 106 .
 例えば、物体追跡部105は、カルマンフィルタを用いて予測された追跡位置41Aを、追跡位置41Aのバリデーションゲート51A内の検出位置12Aに修正する。同様に、物体追跡部105は、カルマンフィルタを用いて予測された追跡位置41Bを、追跡位置41Bのバリデーションゲート51B内の検出位置12Bに修正する。 For example, the object tracking unit 105 corrects the tracked position 41A predicted using the Kalman filter to the detected position 12A within the validation gate 51A of the tracked position 41A. Similarly, the object tracking unit 105 corrects the tracked position 41B predicted using the Kalman filter to the detected position 12B within the validation gate 51B of the tracked position 41B.
 また、物体追跡部105は、カルマンフィルタを用いて予測された追跡位置41Cを、追跡位置41Cのバリデーションゲート51C内の検出位置12C及び自己位置21を用いて修正する。このように複数の位置に基づいて追跡位置を修正する場合には、物体追跡部105は、PDA(Probabilistic Data Association)やJPDA(Joint Probabilistic Data Association)などの確率的な重み付け手法を用いて、複数の位置(例えば、検出位置12C及び自己位置21)を重み付けし、重み付け後の位置に基づいて追跡位置41Cを修正する。 Also, the object tracking unit 105 corrects the tracking position 41C predicted using the Kalman filter using the detected position 12C and the self-position 21 in the validation gate 51C of the tracking position 41C. When the tracking position is corrected based on a plurality of positions in this way, the object tracking unit 105 uses a probabilistic weighting method such as PDA (Probabilistic Data Association) or JPDA (Joint Probabilistic Data Association) to calculate a plurality of (for example, detected position 12C and self-position 21) are weighted, and tracking position 41C is corrected based on the weighted position.
 また、物体追跡部105は、いずれの検出位置のバリデーションゲートにも含まれない検出位置22Aを、新たな追跡位置41Dとして、現フレームからの追跡を開始する。なお、追跡位置41Dについても、バリデーションゲート51Dが設定される。 Also, the object tracking unit 105 starts tracking from the current frame with the detected position 22A, which is not included in the validation gates of any detected positions, as a new tracking position 41D. A validation gate 51D is also set for the tracking position 41D.
 物体追跡部105は、上記した追跡位置の更新処理をフレームごとに行うことにより、物体の追跡を行う。なお、フレームの異なる同一の物体の物標には、同一の物標IDが付される。これにより、フレーム間での物体の追跡が可能となる。 The object tracking unit 105 tracks the object by performing the tracking position update process described above for each frame. Note that the same target ID is assigned to targets of the same object in different frames. This allows tracking of objects between frames.
 〔送信物標選択部109について〕
 送信物標選択部109は、車両2から受信し、時刻ずれ補正部108において時刻ずれが補正された受信物標リストと、物体追跡部105による物体の追跡結果とに基づいて、車両1の外部の装置にブロードキャストする追跡結果を示す物標を選択する。以下、図面を参照して送信物標選択部109による送信物標の選択処理について説明する。
[Regarding the transmission target selection unit 109]
The transmission target selection unit 109 receives from the vehicle 2, based on the reception target list in which the time lag is corrected by the time lag correction unit 108, and the tracking result of the object by the object tracking unit 105, Select a target whose track results you want to broadcast to your device. Hereinafter, transmission target selection processing by the transmission target selection unit 109 will be described with reference to the drawings.
 図15及び図16は、送信物標選択部109による送信物標の選択処理の一例について説明するための図である。 15 and 16 are diagrams for explaining an example of transmission target selection processing by the transmission target selection unit 109. FIG.
 図15は、物体追跡部105による物体の追跡結果に、時刻ずれ補正部108による時刻ずれ補正後の物標が示す物体の位置を重ね合わせたものである。つまり、物体の追跡結果として追跡位置41A、41B、41Cが示されている。また、車両2から受信した後、時刻ずれが補正された物標が示す位置として、物体の検出位置22A、22B、22C、22D、22Eと、車両2の自己位置21とを示されている。なお、車両1の自己位置11も合わせて示される。 FIG. 15 shows the position of the object indicated by the target after the time lag correction by the time lag correction section 108, superimposed on the tracking result of the object by the object tracking section 105. FIG. That is, tracked positions 41A, 41B, and 41C are shown as the tracking result of the object. Detected positions 22A, 22B, 22C, 22D, and 22E of objects and the self-position 21 of the vehicle 2 are shown as positions indicated by the target whose time lag is corrected after being received from the vehicle 2. FIG. The self-position 11 of the vehicle 1 is also shown together.
 図16を参照して、送信物標選択部109は、追跡位置のバリデーションゲート内に、車両2を含む他者から受信した物標が示す位置が含まれているか否かを判断する。送信物標選択部109は、他者から受信した物標が示す位置が含まれている場合には、追跡位置を示す物標を送信しないと判断する。一方、送信物標選択部109は、他者から受信した物標が示す位置が含まれていない場合には、追跡位置を示す物標を送信対象として決定する。 With reference to FIG. 16, the transmission target selection unit 109 determines whether or not the position indicated by the target received from another person including the vehicle 2 is included in the validation gate of the tracking position. The transmission target selection unit 109 determines not to transmit the target indicating the tracking position when the position indicated by the target received from the other party is included. On the other hand, if the position indicated by the target received from the other party is not included, the transmission target selection unit 109 determines the target indicating the tracked position as the transmission target.
 例えば、追跡位置41Aのバリデーションゲート51A内には他者から受信した物標が示す位置が含まれていない。このため、送信物標選択部109は、追跡位置41Aを示す物標を送信対象として決定する。 For example, the validation gate 51A of the tracking position 41A does not include the position indicated by the target received from others. Therefore, the transmission target selection unit 109 determines the target indicating the tracking position 41A as a transmission target.
 一方、追跡位置41Bのバリデーションゲート51B内には他者から受信した物標が示す物体の検出位置22B、22Cが含まれる。このため、送信物標選択部109は、追跡位置41Bを示す物標を送信しないと判断する。同様に、追跡位置41Cのバリデーションゲート51C内には他者から受信した物標が示す車両2の自己位置21が含まれる。このため、送信物標選択部109は、追跡位置41Cを示す物標を送信しないと判断する。
 なお、送信物標選択部109は、車両1の自己位置11を示す物標については、常に送信対象とする。
On the other hand, the validation gate 51B of the tracking position 41B includes detection positions 22B and 22C of objects indicated by targets received from others. Therefore, the transmission target selection unit 109 determines not to transmit the target indicating the tracking position 41B. Similarly, the self-position 21 of the vehicle 2 indicated by the targets received from others is contained within the validation gate 51C of the tracking position 41C. Therefore, the transmission target selection unit 109 determines not to transmit the target indicating the tracking position 41C.
Note that the transmission target selection unit 109 always selects a target indicating the self-position 11 of the vehicle 1 as a transmission target.
 〔物標送信部110について〕
 物標送信部110は、送信物標選択部109により送信対象とされた物標をブロードキャストすることにより、外部の装置に送信する。
[Regarding Target Transmission Unit 110]
The target transmission unit 110 transmits the target selected by the transmission target selection unit 109 to an external device by broadcasting the target.
 図17は、物標送信部110による送信処理の一例を説明するための図である。物標送信部110は、送信対象とされた、物体の追跡位置41Aを示す物標、及び車両1の自己位置11を示す物標をブロードキャストする。 FIG. 17 is a diagram for explaining an example of transmission processing by the target transmission unit 110. FIG. The target transmitting unit 110 broadcasts a target indicating the tracking position 41A of the object and a target indicating the self-position 11 of the vehicle 1, which are transmission targets.
 〔車載システム10の処理手順〕
 図18は、車載システム10の処理手順の一例を示すフローチャートである。
 図18を参照して、有効物標第一選択部104は、死角領域管理部103から、図4に示したような車両1の周囲のグリッドマップ30を取得する(ステップS1)。
[Processing procedure of in-vehicle system 10]
FIG. 18 is a flow chart showing an example of the processing procedure of the in-vehicle system 10. As shown in FIG.
Referring to FIG. 18, first effective target selection unit 104 acquires grid map 30 around vehicle 1 as shown in FIG. 4 from blind spot area management unit 103 (step S1).
 有効物標第二選択部106は、物体追跡部105から、物体追跡部105による物体の追跡結果を示す追跡物標リストを取得する(ステップS2)。 The second valid target selection unit 106 acquires a tracking target list indicating the results of object tracking by the object tracking unit 105 from the object tracking unit 105 (step S2).
 時刻ずれ補正部108は、物標受信部107から、物標受信部107が受信した受信物標リストを取得する(ステップS3)。 The time lag correction unit 108 acquires the received target list received by the target receiving unit 107 from the target receiving unit 107 (step S3).
 時刻ずれ補正部108は、ステップS3において取得された受信物標リストが示す物体の検出時刻と、物体検出部102が検出した物体の検出時刻との時刻ずれを補正することにより、受信物標リストを補正する(ステップS4)。 The time shift correction unit 108 corrects the time shift between the detection time of the object indicated by the reception target list acquired in step S3 and the detection time of the object detected by the object detection unit 102, thereby correcting the reception target list. is corrected (step S4).
 有効物標第一選択部104、有効物標第二選択部106、及び時刻ずれ補正部108は、グリッドマップ30、追跡物標リスト、及び補正後の受信物標リストを中継装置130のメモリに保持する(ステップS5)。
 有効物標第一選択部104は、有効物標第一選択処理を実行する(ステップS6)。
The first effective target selection unit 104, the second effective target selection unit 106, and the time lag correction unit 108 store the grid map 30, the tracked target list, and the corrected reception target list in the memory of the relay device 130. Hold (step S5).
The effective target first selection unit 104 executes effective target first selection processing (step S6).
 図19は、有効物標第一選択処理(図18のステップS6)の処理手順の一例を示すフローチャートである。 FIG. 19 is a flow chart showing an example of the processing procedure of the first valid target selection process (step S6 in FIG. 18).
 図19を参照して、有効物標第一選択部104は、中継装置130のメモリから、メモリに保持されているグリッドマップ及び補正の受信物標リストを取得する(ステップS61)。 With reference to FIG. 19, the first effective target selection unit 104 acquires the grid map and the corrected reception target list held in the memory from the memory of the relay device 130 (step S61).
 有効物標第一選択部104は、図8に示したようにグリッドマップ30上に、受信物標リストに含まれる物体の検出位置22A、22B、22C、22D、22E及び自己位置21を配置する(ステップS62)。 The first effective target selection unit 104 arranges detected positions 22A, 22B, 22C, 22D, and 22E of objects included in the received target list and the self position 21 on the grid map 30 as shown in FIG. (Step S62).
 有効物標第一選択部104は、図9に示したようにグリッドマップ30のエンプティ領域34上の検出位置22D、22Eを削除する(ステップS63)。 The first valid target selection unit 104 deletes the detected positions 22D and 22E on the empty area 34 of the grid map 30 as shown in FIG. 9 (step S63).
 有効物標第一選択部104は、図9に示したように物体観測領域32Aと重なる検出位置22Cを削除する(ステップS64)。 The first valid target selection unit 104 deletes the detection position 22C overlapping the object observation area 32A as shown in FIG. 9 (step S64).
 有効物標第一選択部104は、残った検出位置22A、22Bを示す物体の情報と、自己位置21を示す車両2の情報とを有効物標として選択し、選択した有効物標のリストを中継装置130のメモリに格納する(ステップS65)。 The effective target first selection unit 104 selects the information of the object indicating the remaining detection positions 22A and 22B and the information of the vehicle 2 indicating the self-position 21 as effective targets, and creates a list of the selected effective targets. It is stored in the memory of relay device 130 (step S65).
 再び図18を参照して、有効物標第二選択部106は、有効物標第二選択処理を実行する(ステップS7)。 Referring to FIG. 18 again, the valid target second selection unit 106 executes the valid target second selection process (step S7).
 図20は、有効物標第二選択処理(図18のステップS7)の処理手順の一例を示すフローチャートである。 FIG. 20 is a flowchart showing an example of the processing procedure of the second valid target selection process (step S7 in FIG. 18).
 図20を参照して、有効物標第二選択部106は、中継装置130のメモリから、メモリに保持されている追跡物標リスト、及び有効物標第一選択処理の結果選択された有効物標リストを取得する(ステップS71)。 Referring to FIG. 20, valid target second selection unit 106 selects from the memory of relay device 130 the tracked target list held in the memory and the valid target selected as a result of the first valid target selection process. A target list is acquired (step S71).
 有効物標第二選択部106は、追跡物標リストに示される各追跡結果について、ステップS72からステップS75の処理を実行する(ループA)。 The second valid target selection unit 106 executes the processing from step S72 to step S75 for each tracking result shown in the tracking target list (loop A).
 つまり、図12に示したように、有効物標第二選択部106は、着目している追跡結果が示す追跡位置から、追跡位置のバリデーションゲート内に存在する物体検出部102が検出した全ての物体の検出位置までのマハラノビス距離をそれぞれ算出する(ステップS72)。 That is, as shown in FIG. 12, the second valid target selection unit 106 selects all objects detected by the object detection unit 102 existing within the validation gate of the tracking position from the tracking position indicated by the tracking result of interest. Each Mahalanobis distance to the detection position of the object is calculated (step S72).
 有効物標第二選択部106は、ステップS72で算出されたマハラノビス距離のうち最小のマハラノビス距離を算出する(ステップS73)。 The second valid target selection unit 106 calculates the minimum Mahalanobis distance among the Mahalanobis distances calculated in step S72 (step S73).
 有効物標第二選択部106は、上記した追跡位置から、上記したバリデーションゲート内の受信物標リストに示される物体の検出位置までのマハラノビス距離を算出する(ステップS74)。 The valid target second selection unit 106 calculates the Mahalanobis distance from the tracking position described above to the detected position of the object shown in the received target list in the validation gate (step S74).
 有効物標第二選択部106は、ステップS74で算出したマハラノビス距離が、ステップS73で算出した最小マハラノビス距離よりも小さい検出位置に対応した物体の物標を有効であると判定する(ステップS75)。 The second effective target selection unit 106 determines that the target of the object corresponding to the detection position where the Mahalanobis distance calculated in step S74 is smaller than the minimum Mahalanobis distance calculated in step S73 is valid (step S75). .
 ループAの処理の終了後、有効物標第二選択部106は、有効であると判断した有効物標のリストを物体追跡部105に出力する(ステップS76)。なお、物体追跡部105では、図14に示したように、物体検出部102による物体の検出結果と有効物標リストに基づいて、追跡物標リストの更新が行われる。 After the processing of loop A ends, the second effective target selection unit 106 outputs a list of effective targets determined to be effective to the object tracking unit 105 (step S76). As shown in FIG. 14, the object tracking unit 105 updates the tracked target list based on the object detection result of the object detection unit 102 and the effective target list.
 再び図18を参照して、送信物標選択部109は、車両1の外部の装置にブロードキャストする物体の追跡結果を示す送信物標を選択する送信物標選択処理を実行する(ステップS8)。
 図21は、送信物標選択処理(図18のステップS8)の処理手順の一例を示すフローチャートである。
Referring to FIG. 18 again, the transmission target selection unit 109 executes a transmission target selection process of selecting a transmission target indicating the tracking result of the object to be broadcast to the device outside the vehicle 1 (step S8).
FIG. 21 is a flow chart showing an example of the procedure of the transmission target selection process (step S8 in FIG. 18).
 図21を参照して、送信物標選択部109は、中継装置130のメモリから追跡物標リスト及び補正後の受信物標リストを取得する(ステップS81)。 Referring to FIG. 21, the transmission target selection unit 109 acquires the tracking target list and the corrected reception target list from the memory of the relay device 130 (step S81).
 送信物標選択部109は、追跡物標リストに含まれる各追跡物標について、ステップS82、S83の処理を実行する(ループB)。 The transmission target selection unit 109 executes the processing of steps S82 and S83 for each tracked target included in the tracked target list (loop B).
 つまり、送信物標選択部109は、図16に示すように、追跡物標が示す物体の追跡位置のバリデーションゲート内に、車両2を含む他者から受信した物標が示す位置が含まれているか否かを判断する(ステップS82)。 That is, as shown in FIG. 16, the transmission target selection unit 109 determines that the position indicated by the target received from the other including the vehicle 2 is included in the validation gate of the tracking position of the object indicated by the tracking target. It is determined whether or not there is (step S82).
 送信物標選択部109は、他者から受信した物標が示す位置が含まれている場合には(ステップS82においてYES)、処理対象の追跡物標に対して非送信フラグを設定する(ステップS83)。 If the position indicated by the target received from the other party is included (YES in step S82), the transmission target selection unit 109 sets a non-transmission flag for the tracking target to be processed (step S83).
 ループBの処理の後、送信物標選択部109は、非送信フラグが設定されていない追跡物標を、送信物標として選択する(ステップS84)。 After the processing of loop B, the transmission target selection unit 109 selects the tracking target for which the non-transmission flag is not set as the transmission target (step S84).
 再び図18を参照して、送信物標選択部109は、送信物標選択処理(ステップS8)で選択された送信物標の識別子である送信物標IDを、中継装置130のメモリに保持する(ステップS9)。 Referring to FIG. 18 again, transmission target selection unit 109 stores transmission target ID, which is the identifier of the transmission target selected in the transmission target selection process (step S8), in the memory of relay device 130. (Step S9).
 送信物標選択部109は、物体追跡部105から追跡物標リストを取得する(ステップS10)。物体追跡部105から取得した追跡物標リストは、現フレームにおける物体検出部102による物体の検出結果が反映された更新後の追跡物標リストである。 The transmission target selection unit 109 acquires the tracking target list from the object tracking unit 105 (step S10). The tracked target list acquired from the object tracking unit 105 is an updated tracked target list that reflects the object detection result of the object detection unit 102 in the current frame.
 送信物標選択部109は、ステップS10において取得された更新後の追跡物標リストの中から、ステップS9においてメモリに保持されている送信物標IDと同じ物標IDを有する追跡物標を選択する(ステップS11)。これにより、最新の追跡位置を示す追跡物標を選択することができる。 The transmission target selection unit 109 selects a tracking target having the same target ID as the transmission target ID held in the memory in step S9 from the updated tracking target list acquired in step S10. (step S11). Thereby, a tracked target that indicates the latest tracked position can be selected.
 送信物標選択部109は、選択した追跡物標と、車両1の自己位置11を示す物標とを物標送信部110に出力する(ステップS12)。これにより、物標送信部110は、送信物標選択部109から取得した追跡物標及び車両1の自己位置11を示す物標を外部の装置にブロードキャストすることができる。 The transmission target selection unit 109 outputs the selected tracking target and the target indicating the self-position 11 of the vehicle 1 to the target transmission unit 110 (step S12). Thereby, the target transmitting unit 110 can broadcast the tracking target obtained from the transmission target selecting unit 109 and the target indicating the self-position 11 of the vehicle 1 to an external device.
 〔本開示の実施形態の効果〕
 以上説明したように、有効物標第二選択部106は、物体の位置の追跡結果を用いて、車載センサ101により検出された第1物体と他者により検出された第2物体とを同定する。このため、過去からの物体の位置の連続性を考慮して、第1物体と第2物体とを正確に同定することができる。これにより、1つの物体を複数の物体であると誤認識することを防止することができるため、不要な車両の走行制御の発生を防止することができ、車両の走行制御を効率的に行うことができる。
[Effects of the embodiment of the present disclosure]
As described above, the second valid target selection unit 106 identifies the first object detected by the in-vehicle sensor 101 and the second object detected by another person using the tracking result of the positions of the objects. . Therefore, it is possible to accurately identify the first object and the second object by considering the continuity of the positions of the objects from the past. As a result, it is possible to prevent one object from being erroneously recognized as a plurality of objects, thereby preventing the occurrence of unnecessary running control of the vehicle and efficiently performing the running control of the vehicle. can be done.
 また、有効物標第一選択部104は、死角領域を除く車載センサ101による物体の検出可能領域内に他者により検出された第2物体が存在する場合には、第2物体は他者により誤検出されたものであると判断して、第2物体を除外することができる。これにより、車載センサ101による物体の検出結果を優先して、第1物体及び第2物体の同定を行うことができる。 In addition, when the second object detected by the other person exists within the detectable area of the object by the in-vehicle sensor 101 excluding the blind spot area, the first valid target selection unit 104 detects that the second object is detected by the other person. The second object can be excluded by judging that it was falsely detected. Thereby, the first object and the second object can be identified by prioritizing the detection result of the object by the in-vehicle sensor 101 .
 また、有効物標第二選択部106は、バリデーションゲート内に複数の物体が含まれる場合には、必ず第1物体を選択する。これにより、物体追跡部105が第1物体を連続的に追跡することができる。 In addition, the valid target second selection unit 106 always selects the first object when a plurality of objects are included in the validation gate. This allows the object tracking unit 105 to continuously track the first object.
 また、有効物標第二選択部106は、バリデーションゲート内に含まれる複数の物体のうち、追跡結果が示す追跡位置に最も近い物体を選択する。これにより、物体追跡部105は、物体の位置を滑らかに接続した連続性の高い物体追跡を行うことができる。 Also, the valid target second selection unit 106 selects the object closest to the tracking position indicated by the tracking result from among the plurality of objects included in the validation gate. As a result, the object tracking unit 105 can perform object tracking with high continuity in which the positions of objects are smoothly connected.
 また、物体追跡部105は、バリデーションゲート内に含まれる複数の物体の位置を確率的に重み付けした位置に基づいて物体の追跡位置を更新している。これにより、バリデーションゲート内に複数の物体が存在する場合であっても、確率的に重み付けされた物体の位置に基づいて追跡結果を更新することができるため、物体の位置を滑らかに接続した連続性の高い物体追跡を行うことができる。 Also, the object tracking unit 105 updates the tracking position of the object based on the positions obtained by probabilistically weighting the positions of a plurality of objects included in the validation gate. This allows the tracking results to be updated based on the probabilistically weighted positions of the objects, even when there are multiple objects in the validation gate, thus providing a smooth connected continuum of object positions. It is possible to perform highly accurate object tracking.
 また、送信物標選択部109は、バリデーションゲート内に第2物体が存在する場合には、追跡結果が示す位置の情報を車両外の装置へ送信しないようにすることができる。このような情報は第2情報として他車両が送信しているため、重複して送信する必要がない。これにより、不要な情報の送信を抑制し、通信トラフィック量を抑えることができる。 In addition, the transmission target selection unit 109 can prevent transmission of position information indicated by the tracking result to a device outside the vehicle when the second object exists within the validation gate. Since such information is transmitted by other vehicles as the second information, there is no need to transmit it redundantly. As a result, transmission of unnecessary information can be suppressed, and the amount of communication traffic can be suppressed.
 また、時刻ずれ補正部108は、第1物体の検出時刻と第2物体の検出時刻とのずれを考慮して、第2物体の位置を補正することができる。これにより、同じ時刻における第1物体及び第2物体の検出位置に基づいて、第1物体及び第2物体を同定することができる。これにより、第1物体と第2物体とを正確に同定することができる。 Also, the time shift correction unit 108 can correct the position of the second object in consideration of the shift between the detection time of the first object and the detection time of the second object. Thereby, the first object and the second object can be identified based on the detected positions of the first object and the second object at the same time. Thereby, the first object and the second object can be accurately identified.
 <変形例>
 上述の実施形態では、有効物標第一選択部104は、車載センサ101の物体の検出可能領域に存在する他者が検出した物体の物標を、受信物標リストから除外することとした。
<Modification>
In the above-described embodiment, the first valid target selection unit 104 excludes targets of objects detected by others that exist in the object detectable area of the in-vehicle sensor 101 from the received target list.
 本変形例では、受信物標リストに含まれる物標が物体の領域(占有領域)を示すものとする。この場合、有効物標第一選択部104は、受信物標リストに含まれる物標が示す物体の領域の少なくとも一部が、車載センサ101の検出可能領域と重複する場合に、当該物体の物標を受信物標リストから除外することとする。 In this modified example, the target included in the received target list indicates the area (occupied area) of the object. In this case, if at least a part of the area of the object indicated by the target included in the received target list overlaps with the detectable area of the in-vehicle sensor 101, the first effective target selection unit 104 selects the object of the object. target is excluded from the received target list.
 これにより、第1センサによる物体の検出結果を優先して、第1物体及び第2物体の同定を行うことができる。 Thereby, the first object and the second object can be identified by prioritizing the detection result of the object by the first sensor.
 [付記]
 上記の各装置を構成する構成要素の一部または全部は、1または複数のシステムLSIなどの半導体装置から構成されていてもよい。
[Appendix]
A part or all of the constituent elements constituting each of the devices described above may be composed of one or more semiconductor devices such as system LSIs.
 また、上記したコンピュータプログラムを、コンピュータ読取可能な非一時的な記録媒体、例えば、HDD、CD-ROM、半導体メモリなどに記録して流通させてもよい。また、コンピュータプログラムを、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送して流通させてもよい。
 また、上記各装置は、複数のコンピュータ又は複数のプロセッサにより実現されてもよい。
Moreover, the computer program described above may be recorded on a non-temporary computer-readable recording medium such as an HDD, a CD-ROM, a semiconductor memory, etc., and distributed. Also, the computer program may be transmitted and distributed via an electric communication line, a wireless or wired communication line, a network represented by the Internet, data broadcasting, or the like.
Moreover, each of the above devices may be realized by a plurality of computers or a plurality of processors.
 また、上記各装置の一部または全部の機能がクラウドコンピューティングによって提供されてもよい。つまり、各装置の一部または全部の機能がクラウドサーバにより実現されていてもよい。
 さらに、上記実施形態および上記変形例の少なくとも一部を任意に組み合わせてもよい。
Also, part or all of the functions of the above devices may be provided by cloud computing. That is, part or all of the functions of each device may be realized by the cloud server.
Furthermore, at least part of the above embodiment and the above modifications may be combined arbitrarily.
 今回開示された実施形態はすべての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は、上記した意味ではなく、請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time should be considered illustrative in all respects and not restrictive. The scope of the present disclosure is indicated by the scope of the claims rather than the meaning described above, and is intended to include all changes within the meaning and scope equivalent to the scope of the claims.
1    車両
2    車両
3    車両
4    歩行者
5    道路
6    車両
7    車両
10   車載システム
11   自己位置
12A  検出位置
12B  検出位置
12C  検出位置
12D  検出位置
21   自己位置
22   検出位置
22A  検出位置
22B  検出位置
22C  検出位置
22D  検出位置
22E  検出位置
30   グリッドマップ
31   グリッド
32A  物体観測領域
32B  物体観測領域
32C  物体観測領域
33A  死角領域
33B  死角領域
33C  死角領域
34   エンプティ領域
41   追跡位置
41A  追跡位置
41B  追跡位置
41C  追跡位置
41D  追跡位置
51   バリデーションゲート
51A  バリデーションゲート
51B  バリデーションゲート
51C  バリデーションゲート
51D  バリデーションゲート
101  車載センサ
101A 車載センサ
101B 車載センサ
102  物体検出部
103  死角領域管理部
104  有効物標第一選択部(情報選択部)
105  物体追跡部
106  有効物標第二選択部(同定部)
107  物標受信部
108  時刻ずれ補正部(補正部)
109  送信物標選択部(送信対象決定部)
110  物標送信部
111  運転制御部
120  制御装置
130  中継装置
140  通信装置
1 Vehicle 2 Vehicle 3 Vehicle 4 Pedestrian 5 Road 6 Vehicle 7 Vehicle 10 In-vehicle system 11 Self-position 12A Detected position 12B Detected position 12C Detected position 12D Detected position 21 Self-position 22 Detected position 22A Detected position 22B Detected position 22C Detected position 22D Detection Position 22E Detected position 30 Grid map 31 Grid 32A Object observation area 32B Object observation area 32C Object observation area 33A Blind area 33B Blind area 33C Blind area 34 Empty area 41 Tracked position 41A Tracked position 41B Tracked position 41C Tracked position 41D Tracked position 51 Validation Gate 51A Validation gate 51B Validation gate 51C Validation gate 51D Validation gate 101 In-vehicle sensor 101A In-vehicle sensor 101B In-vehicle sensor 102 Object detection unit 103 Blind spot area management unit 104 Effective target first selection unit (information selection unit)
105 object tracking unit 106 effective target second selection unit (identification unit)
107 target receiving unit 108 time lag correction unit (correction unit)
109 transmission target selection unit (transmission target determination unit)
110 target transmission unit 111 operation control unit 120 control device 130 relay device 140 communication device

Claims (11)

  1.  車両に搭載される車載装置であって、
     前記車両に搭載された第1センサにより検出された第1物体の位置を示す第1情報と、前記車両外の第2センサにより検出された第2物体の位置を示す第2情報と、前記第1物体又は前記第2物体の位置の追跡結果とに基づいて、前記第1物体及び前記第2物体の同定を行う同定部を備える、車載装置。
    An in-vehicle device mounted in a vehicle,
    first information indicating the position of a first object detected by a first sensor mounted on the vehicle; second information indicating the position of a second object detected by a second sensor outside the vehicle; An in-vehicle device, comprising: an identification unit that identifies the first object and the second object based on tracking results of positions of one object or the second object.
  2.  前記車載装置は、前記第2情報の中から、前記第1センサによる物体の検出可能領域内に存在する前記第2物体の位置を除外した前記第2情報を選択する情報選択部をさらに備え、
     前記同定部は、前記追跡結果と、前記第1情報と、前記情報選択部により選択された前記第2情報とに基づいて、前記第1物体及び前記第2物体の同定を行う、請求項1に記載の車載装置。
    The in-vehicle device further comprises an information selection unit that selects, from the second information, the second information excluding the position of the second object existing within the detectable area of the object by the first sensor,
    2. The identification unit identifies the first object and the second object based on the tracking result, the first information, and the second information selected by the information selection unit. In-vehicle device according to .
  3.  前記第2情報は、さらに、前記第2物体の占有領域を示し、
     前記情報選択部は、前記第2物体の占有領域の少なくとも一部の領域が前記検出可能領域と重複する前記第2物体を除外する、請求項2に記載の車載装置。
    the second information further indicates an occupied area of the second object;
    The in-vehicle device according to claim 2, wherein the information selection unit excludes the second object whose occupied area of the second object overlaps with the detectable area.
  4.  前記同定部は、同一の物体であると同定された前記第1物体及び前記第2物体の中から前記第1物体を優先して選択し、
     前記車載装置は、前記同定部が選択した物体の位置に基づいて、前記追跡結果を修正する物体追跡部をさらに備える、請求項1から請求項3のいずれか1項に記載の車載装置。
    The identification unit preferentially selects the first object from among the first object and the second object identified as being the same object,
    The vehicle-mounted device according to any one of claims 1 to 3, further comprising an object tracking unit that corrects the tracking result based on the position of the object selected by the identification unit.
  5.  前記同定部は、前記追跡結果に基づいて設定される設定領域内に含まれる前記第1物体及び前記第2物体のうち、前記追跡結果が示す位置に最も近い物体を選択する、請求項4に記載の車載装置。 5. The identifying unit selects an object closest to a position indicated by the tracking result from among the first object and the second object included in a set area set based on the tracking result. In-vehicle device as described.
  6.  前記物体追跡部は、前記設定領域内に含まれる前記第1物体及び前記第2物体の位置を確率的に重み付けした位置を算出することにより、前記追跡結果を更新する、請求項5に記載の車載装置。 6. The object tracking unit according to claim 5, wherein the object tracking unit updates the tracking result by calculating positions obtained by probabilistically weighting the positions of the first object and the second object included in the set area. In-vehicle device.
  7.  前記車載装置は、前記追跡結果に基づいて設定される設定領域内に前記第2物体が含まれない場合に、前記追跡結果が示す位置の情報を、前記車両外の装置への送信対象として決定する送信対象決定部をさらに備える、請求項1から請求項6のいずれか1項に記載の車載装置。 When the second object is not included in a set area set based on the tracking result, the in-vehicle device determines position information indicated by the tracking result as a transmission target to the device outside the vehicle. The in-vehicle device according to any one of claims 1 to 6, further comprising a transmission target determination unit that performs transmission.
  8.  前記第1情報は、さらに、前記第1物体の検出時刻、移動速度及び移動方向を示し、
     前記第2情報は、さらに、前記第2物体の検出時刻、移動速度及び移動方向を示し、
     前記車載装置は、前記第1情報及び前記第2情報に基づいて、前記第2物体の位置を補正する補正部をさらに備える、請求項1から請求項7のいずれか1項に記載の車載装置。
    The first information further indicates the detection time, moving speed and moving direction of the first object,
    The second information further indicates the detection time, moving speed and moving direction of the second object,
    The in-vehicle device according to any one of claims 1 to 7, further comprising a correction unit that corrects the position of the second object based on the first information and the second information. .
  9.  車両に搭載される車載装置による物体の同定方法であって、
     前記車両に搭載された第1センサにより検出された第1物体の位置を示す第1情報と、前記車両外の第2センサにより検出された第2物体の位置を示す第2情報と、前記第1物体又は前記第2物体の位置の追跡結果とに基づいて、前記第1物体及び前記第2物体の同定を行うステップを含む、同定方法。
    A method for identifying an object by an in-vehicle device mounted on a vehicle,
    first information indicating the position of a first object detected by a first sensor mounted on the vehicle; second information indicating the position of a second object detected by a second sensor outside the vehicle; A method for identifying the first object and the second object based on tracking results of positions of one object or the second object.
  10.  車両に搭載されるコンピュータを、
     前記車両に搭載された第1センサにより検出された第1物体の位置を示す第1情報と、前記車両外の第2センサにより検出された第2物体の位置を示す第2情報と、前記第1物体又は前記第2物体の位置の追跡結果とに基づいて、前記第1物体及び前記第2物体の同定を行う同定部として機能させるための、コンピュータプログラム。
    A computer installed in a vehicle
    first information indicating the position of a first object detected by a first sensor mounted on the vehicle; second information indicating the position of a second object detected by a second sensor outside the vehicle; A computer program for functioning as an identification unit that identifies the first object and the second object based on tracking results of positions of one object or the second object.
  11.  車両に搭載される車載システムであって、
     前記車両外のセンサにより検出された物体の位置を示す情報を受信する受信部と、
     前記車両の周囲の物体を追跡する物体追跡部と、
     前記車両に搭載されたセンサにより検出された物体の位置を示す情報と、前記受信部が受信した情報と、前記物体追跡部による追跡結果とに基づいて、前記車両に搭載されたセンサにより検出された物体、及び前記車両外のセンサにより検出された物体の同定を行う同定部とを備える、車載システム。
    An in-vehicle system mounted in a vehicle,
    a receiving unit that receives information indicating the position of an object detected by a sensor outside the vehicle;
    an object tracking unit that tracks objects around the vehicle;
    Based on the information indicating the position of the object detected by the sensor mounted on the vehicle, the information received by the receiving unit, and the tracking result by the object tracking unit, the object detected by the sensor mounted on the vehicle and an identification unit that identifies the object detected by the sensor outside the vehicle.
PCT/JP2022/025019 2021-07-01 2022-06-23 Vehicle-mounted device, identifying method, computer program, and vehicle-mounted system WO2023276840A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023531876A JPWO2023276840A1 (en) 2021-07-01 2022-06-23

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021109867 2021-07-01
JP2021-109867 2021-07-01

Publications (1)

Publication Number Publication Date
WO2023276840A1 true WO2023276840A1 (en) 2023-01-05

Family

ID=84691293

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/025019 WO2023276840A1 (en) 2021-07-01 2022-06-23 Vehicle-mounted device, identifying method, computer program, and vehicle-mounted system

Country Status (2)

Country Link
JP (1) JPWO2023276840A1 (en)
WO (1) WO2023276840A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019133332A (en) * 2018-01-30 2019-08-08 株式会社豊田中央研究所 Association device, object tracking device, and program
JP2019207607A (en) * 2018-05-30 2019-12-05 スズキ株式会社 Moving body tracking device
JP2020154619A (en) * 2019-03-19 2020-09-24 株式会社日立製作所 Vehicle controller, object monitoring device, and vehicle control system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019133332A (en) * 2018-01-30 2019-08-08 株式会社豊田中央研究所 Association device, object tracking device, and program
JP2019207607A (en) * 2018-05-30 2019-12-05 スズキ株式会社 Moving body tracking device
JP2020154619A (en) * 2019-03-19 2020-09-24 株式会社日立製作所 Vehicle controller, object monitoring device, and vehicle control system

Also Published As

Publication number Publication date
JPWO2023276840A1 (en) 2023-01-05

Similar Documents

Publication Publication Date Title
US10006779B2 (en) Transmission necessity determination apparatus and route planning system
US10422649B2 (en) Autonomous driving sensing system and method
US11346682B2 (en) Augmented 3D map
US20190220462A1 (en) Enhancing autonomous vehicle perception with off-vehicle collected data
US11313976B2 (en) Host vehicle position estimation device
US11498577B2 (en) Behavior prediction device
US9002631B2 (en) Vicinity environment estimation device with blind region prediction, road detection and intervehicle communication
JP2016095831A (en) Driving support system and center
JP2017535864A (en) Method and apparatus for determining the position of a vehicle around the vehicle
GB2524384A (en) Autonomous control in a dense vehicle environment
CN112418092B (en) Fusion method, device, equipment and storage medium for obstacle perception
JP2013025423A (en) Vehicle-use radio communication apparatus and communication system
US11507107B2 (en) Map information system
US11120685B2 (en) Map information system
CN113168762A (en) Vehicle travel support method, vehicle travel support device, and automatic driving system
US20220234621A1 (en) Augmented 3d map
CN109425861B (en) Device for calculating reliability of vehicle position
CN114194219A (en) Method for predicting driving road model of automatic driving vehicle
US11468767B2 (en) Map information system
WO2023276840A1 (en) Vehicle-mounted device, identifying method, computer program, and vehicle-mounted system
WO2020070996A1 (en) Travel lane estimation device, travel lane estimation method, control program, and computer-readable non-temporary storage medium
WO2023155218A1 (en) A system and a method for reducing false alerts in a road management system
EP4083957A1 (en) Navigation system with traffic state detection mechanism and method of operation thereof
JP6809339B2 (en) Automatic driving control device
CN112818727A (en) Road constraint determination method and device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22832987

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023531876

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE