JP7501499B2 - Control device, control system, control method, and control program - Google Patents

Control device, control system, control method, and control program Download PDF

Info

Publication number
JP7501499B2
JP7501499B2 JP2021185010A JP2021185010A JP7501499B2 JP 7501499 B2 JP7501499 B2 JP 7501499B2 JP 2021185010 A JP2021185010 A JP 2021185010A JP 2021185010 A JP2021185010 A JP 2021185010A JP 7501499 B2 JP7501499 B2 JP 7501499B2
Authority
JP
Japan
Prior art keywords
scene
sensing data
collection
logger unit
host vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021185010A
Other languages
Japanese (ja)
Other versions
JP2023072448A (en
JP2023072448A5 (en
Inventor
文城 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2021185010A priority Critical patent/JP7501499B2/en
Priority to PCT/JP2022/039486 priority patent/WO2023085062A1/en
Publication of JP2023072448A publication Critical patent/JP2023072448A/en
Publication of JP2023072448A5 publication Critical patent/JP2023072448A5/ja
Application granted granted Critical
Publication of JP7501499B2 publication Critical patent/JP7501499B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • G08G1/127Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station
    • G08G1/13Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station the indicator being in the form of a map

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、車両におけるセンシングデータの収集処理を制御する、制御技術に関する。 This disclosure relates to a control technology for controlling the collection and processing of sensing data in a vehicle.

特許文献1には、車両において取得されたセンシングデータとしての画像キャプチャデータを、低容量でメモリデバイスに記憶するためにダウンサンプリングする技術が、開示されている。 Patent document 1 discloses a technique for downsampling image capture data, which is sensing data acquired in a vehicle, in order to store the data in a memory device with a low capacity.

米国特許第10452926号明細書U.S. Pat. No. 1,045,2926

特許文献1の開示技術では、記憶される画像キャプチャデータにおいて、関心領域外の解像度が関心領域内の解像度よりも低くなるように、ダウンサンプリングが行なわれている。このとき関心領域は、記憶された画像キャプチャデータに基づく物体の認識処理といった、車両アプリケーションに対して適合される。そのため、例えば車両制御モデル等の車両開発に向けて画像キャプチャデータがメモリデバイスへの蓄積によって収集される場合、車両の走行シーンのうち一部に取得された解像度が低下した低品質の画像キャプチャデータでは、当該開発に支障をきたすおそれがあった。 In the technology disclosed in Patent Document 1, downsampling is performed on the stored image capture data so that the resolution outside the region of interest is lower than the resolution within the region of interest. At this time, the region of interest is adapted to a vehicle application, such as object recognition processing based on the stored image capture data. For this reason, when image capture data is collected by storage in a memory device for vehicle development such as a vehicle control model, low-quality image capture data with reduced resolution obtained for a portion of the vehicle's driving scene may cause problems in the development.

本開示の課題は、高品質のセンシングデータを効率的に収集する制御装置を、提供することにある。本開示の別の課題は、高品質のセンシングデータを効率的に収集する制御システムを、提供することにある。本開示のまた別の課題は、高品質のセンシングデータを効率的に収集する制御方法を、提供することにある。本開示のさらに別の課題は、高品質のセンシングデータを効率的に収集する制御プログラムを、提供することにある。 An object of the present disclosure is to provide a control device that efficiently collects high-quality sensing data. Another object of the present disclosure is to provide a control system that efficiently collects high-quality sensing data. Yet another object of the present disclosure is to provide a control method that efficiently collects high-quality sensing data. Yet another object of the present disclosure is to provide a control program that efficiently collects high-quality sensing data.

以下、課題を解決するための本開示の技術的手段について、説明する。尚、特許請求の範囲及び本欄に記載された括弧内の符号は、後に詳述する実施形態に記載された具体的手段との対応関係を示すものであり、本開示の技術的範囲を限定するものではない。 The technical means of the present disclosure for solving the problems will be explained below. Note that the claims and the reference characters in parentheses in this section indicate the corresponding relationship with the specific means described in the embodiments described in detail later, and do not limit the technical scope of the present disclosure.

本開示の第一態様は、
ホスト車両(Vh)においてセンサ系(3)により取得されたセンシングデータ(Dso)の、ロガーユニット(5)への収集処理を制御する制御装置であって、
ホスト車両の走行シーンがモデル化されたシーンモデル(Ms)であって、ロガーユニットへの収集に向けてインタラクションの想定が必要なオブジェクトの相対位置に応じた認識率分布を収集必要シーン毎に規定するシーンモデルを記憶する記憶媒体(104)と、
センシングデータに基づき認識された走行シーンと、記憶されたシーンモデルとの、マッチング度を監視することにより、ロガーユニットへの収集に必要な必要範囲外にマッチング度が低下した走行シーンである、除外シーン(se)に取得されたセンシングデータの収集対象からの除外をロガーユニットへ指令する監視プロセッサ(102)とを、備える。
A first aspect of the present disclosure is
A control device that controls a collection process of sensing data (Dso) acquired by a sensor system (3) in a host vehicle (Vh) into a logger unit (5),
a storage medium (104) for storing a scene model (Ms) in which a driving scene of a host vehicle is modeled, the scene model defining, for each scene to be collected, a recognition rate distribution according to a relative position of an object whose interaction needs to be assumed for collection into a logger unit;
The system is equipped with a monitoring processor (102) that monitors the degree of matching between a driving scene recognized based on sensing data and a stored scene model, and instructs the logger unit to exclude from collection targets sensing data acquired in an excluded scene (se), which is a driving scene in which the degree of matching has fallen outside the required range required for collection in the logger unit.

このように第一態様では、センサ系からのセンシングデータに基づき認識されたホスト車両の走行シーンと、走行シーンがモデル化されて記憶媒体に記憶されたシーンモデルとの、マッチング度が監視プロセッサにより監視される。そこで第一態様によると、ロガーユニットへの収集に必要な必要範囲外にマッチング度が低下した走行シーンである、除外シーンに取得されたセンシングデータについては、収集対象からの除外が監視プロセッサからロガーユニットへ指令される。これによれば、シーンモデルとのマッチング度がロガーユニットへの収集に必要な必要範囲内となる走行シーンでの、高品質のセンシングデータに収集対象を限定して、センシングデータの選別収集を効率的に行うことが可能となる。 In this way, in the first aspect, the monitoring processor monitors the degree of matching between the driving scene of the host vehicle recognized based on the sensing data from the sensor system and the scene model in which the driving scene is modeled and stored in the storage medium. Therefore, according to the first aspect, the monitoring processor instructs the logger unit to exclude from collection sensing data acquired in excluded scenes, which are driving scenes in which the degree of matching has fallen outside the required range required for collection in the logger unit. This makes it possible to efficiently selectively collect sensing data by limiting the collection targets to high-quality sensing data in driving scenes in which the degree of matching with the scene model is within the required range required for collection in the logger unit.

本開示の第二態様は、
ホスト車両(Vh)においてセンサ系(3)により取得されたセンシングデータ(Dso)の、収集処理を制御する制御システムであって、
第一態様の制御装置(1)と、
センシングデータを記憶するロガーユニット(5)であって、除外シーンに取得されたセンシングデータを、監視プロセッサからの指令に応答して収集対象から除外するロガーユニットとを、含んで構成される。
A second aspect of the present disclosure is
A control system for controlling a collection process of sensing data (Dso) acquired by a sensor system (3) in a host vehicle (Vh),
A control device (1) according to a first aspect,
The system includes a logger unit (5) for storing sensing data, and the logger unit excludes sensing data acquired in an excluded scene from data to be collected in response to a command from the monitoring processor.

このような第二態様によると、走行シーンとシーンモデルとのマッチング度が必要範囲外にマッチング度が低下した走行シーンである、除外シーンに取得されたセンシングデータは、ロガーユニットではマッチング度の監視に基づく指令に応答して収集対象から除外されることになる。これによれば、シーンモデルとのマッチング度がロガーユニットへの収集に必要な必要範囲内となる走行シーンでの、高品質のセンシングデータに収集対象を限定して、センシングデータの選別収集を効率的に行うことが可能となる。 According to this second aspect, sensing data acquired in excluded scenes, which are driving scenes where the matching degree between the driving scene and the scene model falls outside the required range, is excluded from collection by the logger unit in response to a command based on monitoring of the matching degree. This makes it possible to efficiently selectively collect sensing data by limiting the collection target to high-quality sensing data in driving scenes where the matching degree with the scene model falls within the required range required for collection by the logger unit.

本開示の第三態様は、
少なくとも一つのプロセッサ(102,202)を含んで構成され、ホスト車両(Vh)においてセンサ系(3)により取得されたセンシングデータ(Dso)の、ロガーユニット(5)への収集処理を制御する制御装置であって、
プロセッサは、
センシングデータに基づき認識されたホスト車両の走行シーンと、当該走行シーンがモデル化されたシーンモデル(Ms)であって、ロガーユニットへの収集に向けてインタラクションの想定が必要なオブジェクトの相対位置に応じた認識率分布を収集必要シーン毎に規定するシーンモデルとの、マッチング度を監視することと、
ロガーユニットへの収集に必要な必要範囲外にマッチング度が低下した走行シーンである、除外シーン(se)に取得されたセンシングデータの収集対象からの除外をロガーユニットへ指令することとを、実行するように構成される。
A third aspect of the present disclosure is
A control device including at least one processor (102, 202) for controlling a collection process of sensing data (Dso) acquired by a sensor system (3) in a host vehicle (Vh) into a logger unit (5),
The processor
monitoring a matching degree between a traveling scene of the host vehicle recognized based on the sensing data and a scene model (Ms) in which the traveling scene is modeled, the scene model defining, for each scene to be collected, a recognition rate distribution according to a relative position of an object whose interaction needs to be assumed for collection into the logger unit;
The system is configured to instruct the logger unit to exclude from collection targets sensing data acquired in an excluded scene (se), which is a driving scene in which the matching degree has decreased to outside the required range required for collection in the logger unit.

本開示の第四態様は、
ホスト車両(Vh)においてセンサ系(3)により取得されたセンシングデータ(Dso)の、ロガーユニット(5)への収集処理を制御するために、少なくとも一つのプロセッサ(102,202)により実行される制御方法であって、
センシングデータに基づき認識されたホスト車両の走行シーンと、当該走行シーンがモデル化されたシーンモデル(Ms)であって、ロガーユニットへの収集に向けてインタラクションの想定が必要なオブジェクトの相対位置に応じた認識率分布を収集必要シーン毎に規定するシーンモデルとの、マッチング度を監視することと、
ロガーユニットへの収集に必要な必要範囲外にマッチング度が低下した走行シーンである、除外シーン(se)に取得されたセンシングデータの収集対象からの除外をロガーユニットへ指令することを、含む。
A fourth aspect of the present disclosure is
A control method executed by at least one processor (102, 202) for controlling a collection process of sensing data (Dso) acquired by a sensor system (3) in a host vehicle (Vh) into a logger unit (5), comprising:
monitoring a matching degree between a traveling scene of the host vehicle recognized based on the sensing data and a scene model (Ms) in which the traveling scene is modeled, the scene model defining, for each scene to be collected, a recognition rate distribution according to a relative position of an object whose interaction needs to be assumed for collection into the logger unit;
This includes instructing the logger unit to exclude from collection targets sensing data acquired in an excluded scene (se), which is a driving scene in which the matching degree has decreased to outside the required range required for collection in the logger unit.

本開示の第五態様は、
ホスト車両(Vh)においてセンサ系(3)により取得されたセンシングデータ(Dso)の、ロガーユニット(5)への収集処理を制御するために少なくとも一つの記憶媒体(103,203)に記憶され、少なくとも一つのプロセッサ(102,202)に実行させる命令を含む制御プログラムであって、
命令は、
センシングデータに基づき認識されたホスト車両の走行シーンと、当該走行シーンがモデル化されたシーンモデル(Ms)であって、ロガーユニットへの収集に向けてインタラクションの想定が必要なオブジェクトの相対位置に応じた認識率分布を収集必要シーン毎に規定するシーンモデルとの、マッチング度を監視させることと、
ロガーユニットへの収集に必要な必要範囲外にマッチング度が低下した走行シーンである、除外シーン(se)に取得されたセンシングデータの収集対象からの除外をロガーユニットへ指令させることを、含む。
A fifth aspect of the present disclosure is a method for manufacturing a semiconductor device comprising:
A control program stored in at least one storage medium (103, 203) for controlling a collection process of sensing data (Dso) acquired by a sensor system (3) in a host vehicle (Vh) into a logger unit (5), the control program including instructions to be executed by at least one processor (102, 202),
The command is,
monitoring a matching degree between a traveling scene of the host vehicle recognized based on the sensing data and a scene model (Ms) in which the traveling scene is modeled, the scene model defining, for each scene to be collected, a recognition rate distribution according to a relative position of an object whose interaction needs to be assumed for collection into the logger unit;
This includes instructing the logger unit to exclude from collection targets sensing data acquired in an excluded scene (SE), which is a driving scene in which the matching degree has decreased to outside the required range required for collection by the logger unit.

これら第三~第五態様では、センサ系からのセンシングデータに基づき認識されたホスト車両の走行シーンと、走行シーンがモデル化されたシーンモデルとの、マッチング度が監視される。そこで第三~第五態様によると、ロガーユニットへの収集に必要な必要範囲外にマッチング度が低下した走行シーンである、除外シーンに取得されたセンシングデータについては、収集対象からの除外がロガーユニットへ指令される。これによれば、シーンモデルとのマッチング度がロガーユニットへの収集に必要な必要範囲内となる走行シーンでの、高品質のセンシングデータに収集対象を限定して、センシングデータの選別収集を効率的に行うことが可能となる。 In these third to fifth aspects, the degree of matching between the driving scene of the host vehicle recognized based on sensing data from the sensor system and a scene model in which the driving scene is modeled is monitored. Therefore, according to the third to fifth aspects, the logger unit is instructed to exclude from collection sensing data acquired in excluded scenes, which are driving scenes where the degree of matching has fallen outside the required range required for collection in the logger unit. This makes it possible to efficiently selectively collect sensing data by limiting the collection target to high-quality sensing data in driving scenes where the degree of matching with the scene model is within the required range required for collection in the logger unit.

本開示の第六態様は、
少なくとも一つのプロセッサ(102,202,502,702)を含んで構成され、ホスト車両(Vh)においてセンサ系(3)により取得されたセンシングデータ(Dso)の、ロガーユニット(5)への収集処理を制御する制御システムであって、
プロセッサは、
センシングデータに基づき認識されたホスト車両の走行シーンと、当該走行シーンがモデル化されたシーンモデル(Ms)であって、ロガーユニットへの収集に向けてインタラクションの想定が必要なオブジェクトの相対位置に応じた認識率分布を収集必要シーン毎に規定するシーンモデルとの、マッチング度を監視することと、
ロガーユニットへの収集に必要な必要範囲外にマッチング度が低下した走行シーンである、除外シーン(se)に取得されたセンシングデータをロガーユニットにおいて収集対象から除外することとを、実行するように構成される。
A sixth aspect of the present disclosure is a method for manufacturing a semiconductor device comprising:
A control system including at least one processor (102, 202, 502, 702) for controlling a collection process of sensing data (Dso) acquired by a sensor system (3) in a host vehicle (Vh) into a logger unit (5),
The processor
monitoring a matching degree between a traveling scene of the host vehicle recognized based on the sensing data and a scene model (Ms) in which the traveling scene is modeled, the scene model defining, for each scene to be collected, a recognition rate distribution according to a relative position of an object whose interaction needs to be assumed for collection into the logger unit;
The system is configured to exclude sensing data acquired in an excluded scene (se), which is a driving scene in which the matching degree has decreased to outside the required range required for collection in the logger unit, from the data to be collected in the logger unit.

本開示の第七態様は、
ホスト車両(Vh)においてセンサ系(3)により取得されたセンシングデータ(Dso)の、ロガーユニット(5)への収集処理を制御するために、少なくとも一つのプロセッサ(102,202,502,702)により実行される制御方法であって、
センシングデータに基づき認識されたホスト車両の走行シーンと、当該走行シーンがモデル化されたシーンモデル(Ms)であって、ロガーユニットへの収集に向けてインタラクションの想定が必要なオブジェクトの相対位置に応じた認識率分布を収集必要シーン毎に規定するシーンモデルとの、マッチング度を監視することと、
ロガーユニットへの収集に必要な必要範囲外にマッチング度が低下した走行シーンである、除外シーン(se)に取得されたセンシングデータをロガーユニットにおいて収集対象から除外することとを、含む。
A seventh aspect of the present disclosure is a method for manufacturing a semiconductor device comprising:
A control method executed by at least one processor (102, 202, 502, 702) for controlling a collection process of sensing data (Dso) acquired by a sensor system (3) in a host vehicle (Vh) into a logger unit (5), comprising:
monitoring a matching degree between a traveling scene of the host vehicle recognized based on the sensing data and a scene model (Ms) in which the traveling scene is modeled, the scene model defining, for each scene to be collected, a recognition rate distribution according to a relative position of an object whose interaction needs to be assumed for collection into the logger unit;
This includes excluding sensing data acquired in an excluded scene (se), which is a driving scene in which the matching degree has decreased to outside the required range required for collection in the logger unit, from the data to be collected in the logger unit.

本開示の第八態様は、
ホスト車両(Vh)においてセンサ系(3)により取得されたセンシングデータ(Dso)の、ロガーユニット(5)への収集処理を制御するために少なくとも一つの記憶媒体(103,203,503,703)に記憶され、少なくとも一つのプロセッサ(102,202,502,702)に実行させる命令を含む制御プログラムであって、
命令は、
センシングデータに基づき認識されたホスト車両の走行シーンと、当該走行シーンがモデル化されたシーンモデル(Ms)であって、ロガーユニットへの収集に向けてインタラクションの想定が必要なオブジェクトの相対位置に応じた認識率分布を収集必要シーン毎に規定するシーンモデルとの、マッチング度を監視させることと、
ロガーユニットへの収集に必要な必要範囲外にマッチング度が低下した走行シーンである、除外シーン(se)に取得されたセンシングデータをロガーユニットにおいて収集対象から除外させることとを、含む。
An eighth aspect of the present disclosure is a method for manufacturing a semiconductor device comprising:
A control program stored in at least one storage medium (103, 203, 503, 703) for controlling a collection process of sensing data (Dso) acquired by a sensor system (3) in a host vehicle (Vh) into a logger unit (5), the control program including instructions to be executed by at least one processor (102, 202, 502, 702),
The command is,
monitoring a matching degree between a traveling scene of the host vehicle recognized based on the sensing data and a scene model (Ms) in which the traveling scene is modeled, the scene model defining, for each scene to be collected, a recognition rate distribution according to a relative position of an object whose interaction needs to be assumed for collection into the logger unit;
This includes excluding sensing data acquired in an excluded scene (se), which is a driving scene in which the matching degree has decreased to outside the required range required for collection in the logger unit, from the data to be collected in the logger unit.

これら第六~第八態様では、センサ系からのセンシングデータに基づき認識されたホスト車両の走行シーンと、走行シーンがモデル化されたシーンモデルとの、マッチング度が監視される。そこで第六~第八態様によると、ロガーユニットへの収集に必要な必要範囲外にマッチング度が低下した走行シーンである、除外シーンに取得されたセンシングデータは、ロガーユニットにおいて収集対象から除外される。これによれば、シーンモデルとのマッチング度がロガーユニットへの収集に必要な必要範囲内となる走行シーンでの、高品質のセンシングデータに収集対象を限定して、センシングデータの選別収集を効率的に行うことが可能となる。 In these sixth to eighth aspects, the degree of matching between the host vehicle's driving scene recognized based on sensing data from the sensor system and a scene model in which the driving scene is modeled is monitored. Thus, according to the sixth to eighth aspects, sensing data acquired in excluded scenes, which are driving scenes in which the degree of matching has fallen outside the required range required for collection in the logger unit, is excluded from the data to be collected in the logger unit. This makes it possible to efficiently selectively collect sensing data by limiting the data to high-quality sensing data in driving scenes in which the degree of matching with the scene model falls within the required range required for collection in the logger unit.

一実施形態による制御システムの全体構成を示すブロック図である。1 is a block diagram showing an overall configuration of a control system according to an embodiment; 一実施形態による制御システムの詳細構成を示すブロック図である。FIG. 2 is a block diagram showing a detailed configuration of a control system according to an embodiment. 一実施形態によるシーンモデルを説明するための模式図である。FIG. 2 is a schematic diagram for explaining a scene model according to an embodiment. 一実施形態による監視処理を説明するための模式図である。FIG. 4 is a schematic diagram for explaining a monitoring process according to an embodiment. 一実施形態による制御フローを示すフローチャートである。1 is a flowchart illustrating a control flow according to one embodiment.

以下、本開示の一実施形態を図面に基づき説明する。 One embodiment of the present disclosure is described below with reference to the drawings.

図1,2に示す一実施形態の制御システム9は、ホスト車両Vhにおいて取得されたデータDsoのロガーユニット5への収集処理を、制御する。ここでホスト車両Vhを中心とする視点において、ホスト車両Vhは自車両(ego-vehicle)であるともいえる。ホスト車両Vhは、乗員の搭乗状態において走行路を走行可能な、例えば自動車等の移動体である。 The control system 9 of one embodiment shown in Figures 1 and 2 controls the collection process of data Dso acquired in the host vehicle Vh to the logger unit 5. Here, from a perspective centered on the host vehicle Vh, the host vehicle Vh can also be said to be an ego-vehicle. The host vehicle Vh is a moving body, such as an automobile, that can travel on a road with an occupant on board.

本実施形態のホスト車両Vhでは、運転タスクにおける乗員の手動介入度に応じてレベル分けされる、自動運転制御が実行可能となっている。自動運転制御は、条件付運転自動化、高度運転自動化、又は完全運転自動化といった、作動時のシステムが全ての運転タスクを実行する自律走行制御により、実現されてもよい。自動運転制御は、運転支援、又は部分運転自動化といった、乗員が一部若しくは全ての運転タスクを実行する高度運転支援制御により、実現されてもよい。自動運転制御は、それら自律走行制御と高度運転支援制御とのいずれか一方、組み合わせ、又は切り替えにより実現されてもよい。 In the host vehicle Vh of this embodiment, autonomous driving control can be executed, with levels classified according to the degree of manual intervention by the occupant in the driving task. The autonomous driving control may be realized by autonomous driving control, such as conditional driving automation, advanced driving automation, or full driving automation, in which the system performs all driving tasks when activated. The autonomous driving control may be realized by advanced driving assistance control, such as driving assistance or partial driving automation, in which the occupant performs some or all driving tasks. The autonomous driving control may be realized by either one of the autonomous driving control and advanced driving assistance control, or by a combination of them, or by switching between them.

制御システム9は、車外制御装置1、車内制御系4及び中継ケーブル系8を含んで構成されている。車外制御装置1は、ホスト車両Vhのボディ内に配置されている。車内制御系4は、ホスト車両Vhのボディ内に配置されている。中継ケーブル系8は、ホスト車両Vhのボディ内に這い回しされることで、車外制御装置1と車内制御系4との間を相互通信可能に接続している。ここで、中継ケーブル系8には、例えばLVDS(Low Voltage Differential Signaling)ケーブル、CAN(Controller Area Network)ケーブル、及びイーサネット(Ethernet)用のLAN(Local Area Network)ケーブル等のうち、複数種類が含まれる。以上より、中継ケーブル系8を介して通信する車外制御装置1と車内制御系4とでは、例えばPTP(Precision Time Protocol)又はgPTP等に準拠する時刻同期が、実現されている。 The control system 9 includes an external control device 1, an in-vehicle control system 4, and a relay cable system 8. The external control device 1 is disposed in the body of the host vehicle Vh. The in-vehicle control system 4 is disposed in the body of the host vehicle Vh. The relay cable system 8 is laid inside the body of the host vehicle Vh to connect the external control device 1 and the in-vehicle control system 4 so that they can communicate with each other. Here, the relay cable system 8 includes multiple types of cables, such as a LVDS (Low Voltage Differential Signaling) cable, a CAN (Controller Area Network) cable, and a LAN (Local Area Network) cable for Ethernet. As described above, the external control device 1 and the in-vehicle control system 4, which communicate via the relay cable system 8, achieve time synchronization that complies with, for example, PTP (Precision Time Protocol) or gPTP.

車外制御装置1は、ホスト車両Vhにおける取得データDsoのロガーユニット5への収集処理を制御するために、自動運転に特化した制御モジュールとして構築されている。車外制御装置1は、ハウジング2、車外センサ系3、監視ユニット10及び認識ユニット20を備えている。ハウジング2は、例えば中空扁平状の矩形箱形等に形成されている。ハウジング2は、ホスト車両Vhのボディを構成するルーフ上に、設置されている。ハウジング2は、車外制御装置1における他の構成要素3,10,20を内部に収容している。 The external control device 1 is constructed as a control module specialized for autonomous driving in order to control the collection process of acquired data Dso in the host vehicle Vh to the logger unit 5. The external control device 1 includes a housing 2, an external sensor system 3, a monitoring unit 10, and a recognition unit 20. The housing 2 is formed, for example, in the shape of a hollow, flat rectangular box. The housing 2 is installed on the roof that constitutes the body of the host vehicle Vh. The housing 2 houses the other components 3, 10, and 20 of the external control device 1 inside.

図2に示すように車外センサ系3は、複数の外界センサ30を有している。各外界センサ30は、例えばカメラ、LiDAR(Light Detection and Ranging / Laser Imaging Detection and Ranging)、レーダ及びソナー等のうち、それぞれ個別の一種類である。各外界センサ30は、ホスト車両Vhの外界においてハウジング2内での配置位置及び個々の視野角に応じたエリアを、センシングする。各外界センサ30は、センシングの結果としてホスト車両Vhの自動運転制御に活用可能な外界情報を表す車外センシングデータDsoを、制御周期毎に生成する。このとき車外センシングデータDsoは、取得された時刻を表すタイムスタンプ情報を含むように、取得される。 As shown in FIG. 2, the outside sensor system 3 has multiple outside sensors 30. Each outside sensor 30 is an individual type of sensor, such as a camera, LiDAR (Light Detection and Ranging / Laser Imaging Detection and Ranging), radar, or sonar. Each outside sensor 30 senses an area in the outside of the host vehicle Vh according to its position in the housing 2 and its individual viewing angle. Each outside sensor 30 generates outside sensing data Dso representing outside information that can be used for automatic driving control of the host vehicle Vh as a result of sensing for each control period. At this time, the outside sensing data Dso is acquired so as to include timestamp information representing the time of acquisition.

監視ユニット10には、通信インタフェース12,14,16、監視SoC(System on a Chip)101及びモデル記憶媒体104が設けられている。監視ユニット10において例えばデシリアライザ等の通信インタフェース12は、車外センサ系3の各外界センサ30に接続されている。それと共に通信インタフェース12は、ユニット間バスを介して認識ユニット20に接続されることで、内部伝送経路17を形成している。 The monitoring unit 10 is provided with communication interfaces 12, 14, and 16, a monitoring SoC (System on a Chip) 101, and a model storage medium 104. In the monitoring unit 10, the communication interface 12, such as a deserializer, is connected to each external sensor 30 of the external sensor system 3. At the same time, the communication interface 12 is connected to the recognition unit 20 via an inter-unit bus, thereby forming an internal transmission path 17.

監視ユニット10において例えばシリアライザ等の通信インタフェース14は、同ユニット10の通信インタフェース12に内部バスを介して且つ車内制御系4に中継ケーブル系8を介してそれぞれ接続されることで、データ伝送経路80を形成している。これにより監視ユニット10は、車外センサ系3の各外界センサ30からロガーユニット5へ車外センシングデータDsoを、データ伝送経路80を通じて伝送可能となっている。監視ユニット10において例えばCAN、又はイーサネットといったLAN等の通信インタフェース16は、監視SoC101に内部バスを介して且つ車内制御系4に中継ケーブル系8を介してそれぞれ接続されることで、データ伝送経路82を形成している。 In the monitoring unit 10, the communication interface 14, such as a serializer, is connected to the communication interface 12 of the unit 10 via an internal bus and to the in-vehicle control system 4 via a relay cable system 8, forming a data transmission path 80. This allows the monitoring unit 10 to transmit outside-vehicle sensing data Dso from each external sensor 30 of the outside-vehicle sensor system 3 to the logger unit 5 via the data transmission path 80. In the monitoring unit 10, the communication interface 16, such as a LAN such as CAN or Ethernet, is connected to the monitoring SoC 101 via an internal bus and to the in-vehicle control system 4 via a relay cable system 8, forming a data transmission path 82.

監視SoC101は、監視プロセッサ102及び監視メモリ103を含む専用コンピュータである。監視プロセッサ102は、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)及びRISC(Reduced Instruction Set Computer)-CPU等のうち、少なくとも一種類をコアとして含む。監視メモリ103は、コンピュータにより読み取り可能なプログラム及びデータを非一時的に記憶する、例えば半導体メモリ等の非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。 The monitoring SoC 101 is a dedicated computer that includes a monitoring processor 102 and a monitoring memory 103. The monitoring processor 102 includes at least one type of core, such as a central processing unit (CPU), a graphics processing unit (GPU), or a reduced instruction set computer (RISC)-CPU. The monitoring memory 103 is a non-transitory tangible storage medium, such as a semiconductor memory, that non-temporarily stores computer-readable programs and data.

監視ユニット10において監視SoC101は、ユニット間バスを介して認識ユニット20に接続されることで、内部伝送経路18を形成している。それと共に監視SoC101は、内部バスを介して通信インタフェース14に接続されることで、監視プロセッサ102とデータ伝送経路80との間を中継する中継経路19を形成している。 In the monitoring unit 10, the monitoring SoC 101 is connected to the recognition unit 20 via an inter-unit bus, forming an internal transmission path 18. At the same time, the monitoring SoC 101 is connected to the communication interface 14 via an internal bus, forming a relay path 19 that relays between the monitoring processor 102 and the data transmission path 80.

監視ユニット10においてモデル記憶媒体104は、内部バスを介して監視SoC101に接続されている。モデル記憶媒体104は、コンピュータにより読み取り可能なデータ等を非一時的に記憶する、例えばSSD(Solid State Drive)といった半導体メモリ等の非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。特に本実施形態のモデル記憶媒体104は、ホスト車両Vhに想定可能な各種走行シーンのうち、図3に示すようにロガーユニット5への収集に複数必要な収集必要シーンsnをモデル化した、シーンモデルMsを記憶している。 In the monitoring unit 10, the model storage medium 104 is connected to the monitoring SoC 101 via an internal bus. The model storage medium 104 is a non-transitory tangible storage medium, such as a semiconductor memory, for example, a solid state drive (SSD), that non-temporarily stores computer-readable data and the like. In particular, the model storage medium 104 of this embodiment stores a scene model Ms that models a plurality of scenes sn that need to be collected and are required to be collected in the logger unit 5, as shown in FIG. 3, from among various driving scenes that can be assumed for the host vehicle Vh.

ここでシーンモデルMsは、例えば走行様式及び外部走行環境等の組み合わせ種別毎に区別した走行シーンのうち、ホスト車両Vhに関する複数の収集必要シーンsnを、図3の如く少なくとも規定する。シーンモデルMsは、ホスト車両Vh以外の移動体と構造物とのうち、ロガーユニット5への収集に向けてインタラクションの想定が必要なオブジェクトを、収集必要シーンsn毎に規定するモデルであってもよい。シーンモデルMsは、ロガーユニット5への収集に向けてインタラクションの想定が必要なオブジェクトまでの距離、及び当該オブジェクトの相対位置に応じた認識率のうち、少なくとも一方の分布を収集必要シーンsn毎に規定するモデルであってもよい。シーンモデルMsは、ホスト車両Vhの走行が想定されるマップ情報のうち、ロガーユニット5への収集に必要なロケーションを、収集必要シーンsn毎に規定するモデルであってもよい。 Here, the scene model Ms at least defines a plurality of scenes sn related to the host vehicle Vh that need to be collected, as shown in FIG. 3, among driving scenes classified by combination type such as driving style and external driving environment. The scene model Ms may be a model that defines, for each scene sn that needs to be collected, objects that need to be assumed to interact with the moving body and structure other than the host vehicle Vh in order to be collected in the logger unit 5. The scene model Ms may be a model that defines, for each scene sn that needs to be collected, the distribution of at least one of the distance to the object that needs to be assumed to interact with the object in order to be collected in the logger unit 5 and the recognition rate according to the relative position of the object. The scene model Ms may be a model that defines, for each scene sn that needs to be collected, the location that is required to be collected in the logger unit 5 from among the map information in which the host vehicle Vh is expected to travel.

このような構成の監視ユニット10において監視プロセッサ102は、監視メモリ103及びモデル記憶媒体104と協働することで、監視処理及び指令処理を実行する。具体的に、監視処理において図2に示す監視プロセッサ102は、認識ユニット20から内部伝送経路18を通じて認識データDrを取得する。ここで認識データDrは、後述するように車外センサ系3からの車外センシングデータDsoに基づくことで認識ユニット20によって認識される、ホスト車両Vhの走行シーン(以下、認識走行シーンともいう)を表している。このとき認識データDrには、走行シーンの認識に用いられた車外センシングデータDsoの取得時刻を表すタイムスタンプ情報が、含まれている。 In the monitoring unit 10 configured as described above, the monitoring processor 102 executes monitoring and command processing by cooperating with the monitoring memory 103 and the model storage medium 104. Specifically, in the monitoring process, the monitoring processor 102 shown in FIG. 2 acquires recognition data Dr from the recognition unit 20 via the internal transmission path 18. Here, the recognition data Dr represents the driving scene of the host vehicle Vh (hereinafter also referred to as the recognized driving scene) recognized by the recognition unit 20 based on the outside-vehicle sensing data Dso from the outside-vehicle sensor system 3 as described below. At this time, the recognition data Dr includes timestamp information indicating the acquisition time of the outside-vehicle sensing data Dso used to recognize the driving scene.

そこで、監視処理において監視プロセッサ102は、取得したホスト車両Vhの走行シーンと、モデル記憶媒体104に記憶されたシーンモデルMsとの、マッチング度を監視する。このときマッチング度は、図4に示すようにシーンモデルMsに含まれる複数の収集必要シーンsnのうち、設定ルール又は機械学習モデルによって判定される一致率が最大となる最大マッチングシーンsnmの、当該最大一致率に規定される。またこのとき認識プロセッサ202は、後述するようにホスト車両Vhの運転状態を表す実運転データDadを、車内制御系4からデータ伝送経路82を通じて取得することで、当該実運転データDadをマッチング度の演算に反映可能となっている。 In the monitoring process, the monitoring processor 102 monitors the degree of matching between the acquired driving scene of the host vehicle Vh and the scene model Ms stored in the model storage medium 104. At this time, the degree of matching is defined as the maximum matching rate of the maximum matching scene snm, which has the maximum matching rate determined by the set rule or machine learning model, among the multiple scenes sn to be collected that are included in the scene model Ms, as shown in FIG. 4. In addition, at this time, the recognition processor 202 acquires actual driving data Dad representing the driving state of the host vehicle Vh from the in-vehicle control system 4 through the data transmission path 82, as described below, so that the actual driving data Dad can be reflected in the calculation of the degree of matching.

さらにこのとき、例えばサービスカー等のようにリモートセンタから遠隔指示又は遠隔操作を受けるホスト車両Vhに搭載された制御システム9の場合には、それら遠隔指示又は遠隔操作に関連する情報を認識プロセッサ202がマッチング度の演算に反映させてもよい。ここで遠隔指示又は遠隔操作に関連する情報とは、例えば遠隔指示又は遠隔操作の判断材料となったリモートセンタでの提示情報、及びリモートセンタにおけるオペレータの音声等のうち、少なくとも一種類である。 Furthermore, in the case of a control system 9 mounted on a host vehicle Vh that receives remote instructions or remote operations from a remote center, such as a service car, the recognition processor 202 may reflect information related to those remote instructions or remote operations in the calculation of the matching degree. Here, the information related to the remote instructions or remote operations is, for example, at least one of the following: information presented at the remote center that was used as a basis for determining the remote instructions or remote operations, and the voice of an operator at the remote center.

こうした監視処理により監視プロセッサ102は、シーンモデルMsのうち最大マッチングシーンsnmと認識走行シーンとのマッチング度が、ロガーユニット5への収集に必要な必要範囲外にまで図4の如く低下しているか否かを、判定する。その結果、最大マッチングシーンsnmと認識走行シーンとのマッチング度が必要範囲外まで低下している場合の指令処理として監視プロセッサ102は、当該マッチング度低下の認識走行シーンを除外シーンseと判断する。ここでマッチング度の判定基準となる必要範囲は、例えば車両制御モデル等の車両開発において要求される走行シーンをカバー可能な範囲に、予め設定される。 By this monitoring process, the monitoring processor 102 determines whether the matching degree between the maximum matching scene snm of the scene model Ms and the recognized driving scene has fallen outside the required range required for collection in the logger unit 5, as shown in FIG. 4. As a result, as a command process when the matching degree between the maximum matching scene snm and the recognized driving scene has fallen outside the required range, the monitoring processor 102 determines the recognized driving scene with the reduced matching degree to be an excluded scene se. Here, the required range that serves as the criterion for determining the matching degree is set in advance to a range that can cover the driving scenes required in vehicle development such as a vehicle control model.

そこで、指令処理において図2に示す監視プロセッサ102は、除外シーンseに取得された車外センシングデータDsoを収集対象から除外するようにロガーユニット5へと指令する、収集指令データDclを生成する。このとき収集指令データDclは、除外シーンseに取得された車外センシングデータDsoの取得時刻を表すタイムスタンプ情報を含むように、取得される。 In the command process, the monitoring processor 102 shown in FIG. 2 generates collection command data Dcl that commands the logger unit 5 to exclude the outside-vehicle sensing data Dso acquired in the excluded scene se from the collection targets. At this time, the collection command data Dcl is acquired so as to include timestamp information indicating the acquisition time of the outside-vehicle sensing data Dso acquired in the excluded scene se.

指令処理において監視プロセッサ102は、生成した収集指令データDclを、中継経路19から通信インタフェース14へと出力する。このとき通信インタフェース14は、例えばデータ伝送前におけるバッファリング処理等により、車外センサ系3からの車外センシングデータDsoの伝送フレーム間に収集指令データDclを割り込ませる。これにより監視プロセッサ102は、中継経路19からロガーユニット5への収集指令データDclを、データ伝送経路80を通じて伝送可能となっている。 In command processing, the monitoring processor 102 outputs the generated collection command data Dcl to the communication interface 14 via the relay path 19. At this time, the communication interface 14 inserts the collection command data Dcl between transmission frames of the outside-vehicle sensing data Dso from the outside-vehicle sensor system 3, for example, by buffering processing before data transmission. This enables the monitoring processor 102 to transmit the collection command data Dcl from the relay path 19 to the logger unit 5 via the data transmission path 80.

認識ユニット20は、車外制御装置1のハウジング2内に収容される基板上に、監視ユニット10と共に実装されている。認識ユニット20には、認識SoC201及び認識記憶媒体204が設けられている。認識SoC201は、認識プロセッサ202及び認識メモリ203を含む専用コンピュータである。認識プロセッサ202は、例えばCPU、GPU及びRISC-CPU等のうち、少なくとも一種類をコアとして含む。認識メモリ203は、コンピュータにより読み取り可能なプログラム及びデータを非一時的に記憶する、例えば半導体メモリ等の非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。 The recognition unit 20 is mounted together with the monitoring unit 10 on a board accommodated in the housing 2 of the exterior control device 1. The recognition unit 20 is provided with a recognition SoC 201 and a recognition storage medium 204. The recognition SoC 201 is a dedicated computer including a recognition processor 202 and a recognition memory 203. The recognition processor 202 includes at least one type of core, such as a CPU, GPU, or RISC-CPU. The recognition memory 203 is a non-transitory tangible storage medium, such as a semiconductor memory, that non-temporarily stores computer-readable programs and data.

認識ユニット20において認識SoC201は、ユニット間バスを介して通信インタフェース12に接続されることで、内部伝送経路17を形成している。それと共に認識SoC201は、ユニット間バスを介して監視SoC101に接続されることで、内部伝送経路18を形成している。さらに認識SoC201は、ユニット間バスを介して通信インタフェース16に接続されることで、内部伝送経路22を形成している。 In the recognition unit 20, the recognition SoC 201 is connected to the communication interface 12 via the inter-unit bus, thereby forming an internal transmission path 17. At the same time, the recognition SoC 201 is connected to the monitoring SoC 101 via the inter-unit bus, thereby forming an internal transmission path 18. Furthermore, the recognition SoC 201 is connected to the communication interface 16 via the inter-unit bus, thereby forming an internal transmission path 22.

このような構成の認識ユニット20において認識プロセッサ202は、認識メモリ203と協働することで、認識処理及び運転計画処理を実行する。具体的に、認識処理において認識プロセッサ202は、車外センサ系3の各外界センサ30から内部伝送経路17を通じて車外センシングデータDsoを取得する。それと共に、認識処理において認識プロセッサ202は、後述するようにホスト車両Vhの運転状態を表す実運転データDadを、車内制御系4からデータ伝送経路82及び内部伝送経路22を通じて取得する。 In the recognition unit 20 configured as described above, the recognition processor 202 executes the recognition process and the driving plan process by working together with the recognition memory 203. Specifically, in the recognition process, the recognition processor 202 acquires the outside-vehicle sensing data Dso from each external sensor 30 of the outside-vehicle sensor system 3 through the internal transmission path 17. At the same time, in the recognition process, the recognition processor 202 acquires the actual driving data Dad, which represents the driving state of the host vehicle Vh, from the in-vehicle control system 4 through the data transmission path 82 and the internal transmission path 22, as described below.

そこで、認識処理において認識プロセッサ202は、車外センシングデータDso及び実運転データDadに基づきホスト車両Vhの現在走行シーンを認識することで、当該認識走行シーンを表す認識データDrを生成する。このとき、認識走行シーンのタイムスタンプ情報を含んで生成される認識データDrは、内部伝送経路18を通じて監視ユニット10に伝送されることで、認識プロセッサ202から監視プロセッサ102へと与えられることとなる。 In the recognition process, the recognition processor 202 recognizes the current driving scene of the host vehicle Vh based on the external sensing data Dso and the actual driving data Dad, and generates recognition data Dr representing the recognized driving scene. At this time, the recognition data Dr generated including the timestamp information of the recognized driving scene is transmitted to the monitoring unit 10 via the internal transmission path 18, and is provided from the recognition processor 202 to the monitoring processor 102.

こうした認識処理に基づく運転計画処理は、認識データDrを与えられた監視プロセッサ102による監視処理及び指令処理のうち、少なくとも監視処理と並行して実行される。このとき運転計画処理として認識プロセッサ202は、ホスト車両Vhの将来運転を規定する将来走行パス及び将来走行軌道を、認識走行シーンに応じて計画する。本実施形態の認識プロセッサ202はさらに、計画した将来走行パス及び将来走行軌道をホスト車両Vhに与えるための運転制御を車内制御系4へ指令する、運転指令データDcdを生成する。このとき生成された運転指令データDcdは、内部伝送経路22及びデータ伝送経路82を通じて車内制御系4に伝送される。 The driving plan process based on such recognition processing is executed at least in parallel with the monitoring processing and command processing by the monitoring processor 102 to which the recognition data Dr is given. At this time, as the driving plan process, the recognition processor 202 plans a future driving path and a future driving trajectory that define the future driving of the host vehicle Vh according to the recognized driving scene. In this embodiment, the recognition processor 202 further generates driving command data Dcd that commands the in-vehicle control system 4 to perform driving control to provide the planned future driving path and future driving trajectory to the host vehicle Vh. The driving command data Dcd generated at this time is transmitted to the in-vehicle control system 4 via the internal transmission path 22 and the data transmission path 82.

車内制御系4は、ロガーユニット5、車内センサ系6及び運転制御ユニット7を備えている。ロガーユニット5には、通信インタフェース50、ロギングSoC501及びロギング記憶媒体504が設けられている。ロガーユニット5において例えばデシリアライザ等の通信インタフェース50は、監視ユニット10の通信インタフェース14に中継ケーブル系8を介して接続されることで、データ伝送経路80を構成している。 The in-vehicle control system 4 includes a logger unit 5, an in-vehicle sensor system 6, and a driving control unit 7. The logger unit 5 includes a communication interface 50, a logging SoC 501, and a logging storage medium 504. In the logger unit 5, the communication interface 50, such as a deserializer, is connected to the communication interface 14 of the monitoring unit 10 via a relay cable system 8 to form a data transmission path 80.

ロガーユニット5においてロギングSoC501は、内部バスを介して通信インタフェース50に接続されている。ロギングSoC501は、収集プロセッサ502及び収集メモリ503を含む専用コンピュータである。収集プロセッサ502は、例えばCPU、GPU及びRISC-CPU等のうち、少なくとも一種類をコアとして含む。収集メモリ503は、コンピュータにより読み取り可能なプログラム及びデータを非一時的に記憶する、例えば半導体メモリ等の非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。 In the logger unit 5, the logging SoC 501 is connected to the communication interface 50 via an internal bus. The logging SoC 501 is a dedicated computer including a collection processor 502 and collection memory 503. The collection processor 502 includes at least one type of core, such as a CPU, GPU, or RISC-CPU. The collection memory 503 is a non-transitory tangible storage medium, such as a semiconductor memory, that non-temporarily stores computer-readable programs and data.

ロガーユニット5においてロギング記憶媒体504は、内部バスを介してロギングSoC501に接続されている。ロギング記憶媒体504は、コンピュータにより読み取り可能なデータ等を非一時的に記憶する、例えばSSDといった半導体メモリ、又はHDD(Hard Disk Drive)といった磁気媒体等の非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。 In the logger unit 5, the logging storage medium 504 is connected to the logging SoC 501 via an internal bus. The logging storage medium 504 is a non-transitory tangible storage medium, such as a semiconductor memory such as an SSD or a magnetic medium such as an HDD (Hard Disk Drive), that non-temporarily stores computer-readable data, etc.

このような構成のロガーユニット5において収集プロセッサ502は、収集メモリ503及びロギング記憶媒体504と協働することで、収集処理及び選別処理を実行する。具体的に、収集処理において収集プロセッサ502は、車外センサ系3の各外界センサ30からデータ伝送経路80を通じて車外センシングデータDsoを取得する。そこで収集処理における収集プロセッサ502は、順次取得した車外センシングデータDsoを、それぞれのタイムスタンプ情報に基づき時系列にロギング記憶媒体504へと記憶する。 In the logger unit 5 configured as described above, the collection processor 502 executes collection processing and selection processing by cooperating with the collection memory 503 and the logging storage medium 504. Specifically, in the collection processing, the collection processor 502 acquires outside-vehicle sensing data Dso from each external sensor 30 of the outside-vehicle sensor system 3 through the data transmission path 80. Then, in the collection processing, the collection processor 502 stores the sequentially acquired outside-vehicle sensing data Dso in chronological order in the logging storage medium 504 based on the respective timestamp information.

こうした収集処理に対して収集プロセッサ502は、監視ユニット10の監視プロセッサ102からデータ伝送経路80を通じて収集指令データDclを取得するのに応答して、即ち同プロセッサ102からの指令に応答して、選別処理を実行する。選別処理において収集プロセッサ502は、収集処理によりロギング記憶媒体504に記憶された車外センシングデータDsoのうち、収集指令データDclに含まれる除外シーンseのタイムスタンプ情報と対応したデータを、削除することで間引く。これは、除外シーンseに取得された車外センシングデータDsoを、ロガーユニット5における収集対象から除外することを意味する。 For this collection process, the collection processor 502 executes a selection process in response to acquiring collection command data Dcl from the monitoring processor 102 of the monitoring unit 10 via the data transmission path 80, i.e., in response to a command from the processor 102. In the selection process, the collection processor 502 thins out the outside-vehicle sensing data Dso stored in the logging storage medium 504 by the collection process by deleting data that corresponds to the timestamp information of the excluded scene se contained in the collection command data Dcl. This means that the outside-vehicle sensing data Dso acquired in the excluded scene se is excluded from the collection targets in the logger unit 5.

車内センサ系6は、外界センサ60及び内界センサ62を複数ずつ有している。外界センサ60は、例えばカメラ、LiDAR、レーザレーダ、ミリ波レーダ及び超音波ソナー等のうち、ホスト車両Vh内から外界をセンシング可能な複数種類である。外界センサ60は、ホスト車両Vhの測位情報を外界から受信可能な、例えばGNSS(Global Navigation Satellite System)受信機等を含んでいてよい。外界センサ60は、ホスト車両Vhの位置情報を外界から受信可能な、例えばDSRC(Dedicated Short Range Communications)通信機、又はセルラV2X(C-V2X)通信機等を含んでいてもよい。内界センサ62は、例えば車速センサ、加速度センサ及びジャイロセンサ等のうち、ホスト車両Vhの内界において運転に関する物理量を検出可能な複数一種類である。外界センサ60及び内界センサ62は、それぞれセンシング結果及び検出結果を表す車内センシングデータDsiを、生成する。 The in-vehicle sensor system 6 has a plurality of external sensors 60 and internal sensors 62. The external sensors 60 are of a plurality of types capable of sensing the external world from within the host vehicle Vh, such as a camera, LiDAR, laser radar, millimeter wave radar, and ultrasonic sonar. The external sensors 60 may include, for example, a Global Navigation Satellite System (GNSS) receiver capable of receiving positioning information of the host vehicle Vh from the external world. The external sensors 60 may include, for example, a Dedicated Short Range Communications (DSRC) communication device or a Cellular V2X (C-V2X) communication device capable of receiving position information of the host vehicle Vh from the external world. The internal sensors 62 are of a plurality of types capable of detecting physical quantities related to driving in the internal world of the host vehicle Vh, such as a vehicle speed sensor, an acceleration sensor, and a gyro sensor. The external sensors 60 and the internal sensors 62 generate in-vehicle sensing data Dsi representing the sensing results and the detection results, respectively.

運転制御ユニット7には、通信インタフェース70及び運転制御ECU(Electronic Control Unit)701が設けられている。運転制御ユニット7において例えばCAN、又はイーサネットといったLAN等の通信インタフェース70は、監視ユニット10の通信インタフェース16に中継ケーブル系8を介して接続されることで、データ伝送経路82を構成している。それと共に通信インタフェース70は、内部を介して運転制御ECU701に接続されている。さらに通信インタフェース70は、ホスト車両Vh内における、例えばCAN、又はイーサネットといったLAN等の車内ネットワークを介して、車内センサ系6の外界センサ60及び内界センサ62に接続されている。 The driving control unit 7 is provided with a communication interface 70 and a driving control ECU (Electronic Control Unit) 701. In the driving control unit 7, the communication interface 70, such as a LAN such as CAN or Ethernet, is connected to the communication interface 16 of the monitoring unit 10 via a relay cable system 8 to form a data transmission path 82. At the same time, the communication interface 70 is connected to the driving control ECU 701 via the inside. Furthermore, the communication interface 70 is connected to the external sensor 60 and the internal sensor 62 of the in-vehicle sensor system 6 via an in-vehicle network such as a LAN such as CAN or Ethernet in the host vehicle Vh.

運転制御ECU701は、運転制御プロセッサ702及び運転制御メモリ703を含む専用コンピュータである。運転制御プロセッサ702は、例えばCPU、GPU及びRISC-CPU等のうち、少なくとも一種類をコアとして含む。運転制御メモリ703は、コンピュータにより読み取り可能なプログラム及びデータを非一時的に記憶する、例えば半導体メモリ等の非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。 The driving control ECU 701 is a dedicated computer including a driving control processor 702 and a driving control memory 703. The driving control processor 702 includes at least one type of core, such as a CPU, a GPU, or a RISC-CPU. The driving control memory 703 is a non-transitory tangible storage medium, such as a semiconductor memory, that non-temporarily stores computer-readable programs and data.

このような構成の運転制御ユニット7において運転制御プロセッサ702は、運転制御メモリ703と協働することで、運転制御処理を実行する。具体的に運転制御処理において運転制御プロセッサ702は、認識ユニット20の認識プロセッサ202から内部伝送経路22及びデータ伝送経路82を通じて運転指令データDcdを取得する。それと共に運転制御プロセッサ702は、車内ネットワークを通じて車内センサ系6の外界センサ60及び内界センサ62から車内センシングデータDsiを取得する。 In the driving control unit 7 configured as above, the driving control processor 702 executes driving control processing by cooperating with the driving control memory 703. Specifically, in the driving control processing, the driving control processor 702 acquires driving command data Dcd from the recognition processor 202 of the recognition unit 20 via the internal transmission path 22 and the data transmission path 82. At the same time, the driving control processor 702 acquires in-vehicle sensing data Dsi from the external sensor 60 and the internal sensor 62 of the in-vehicle sensor system 6 via the in-vehicle network.

そこで、運転制御処理において運転制御プロセッサ702は、運転指令データDcdと車内センシングデータDsiとに基づくことで、自動運転制御を含むホスト車両Vhの運転タスクを制御する。さらに、運転制御処理において運転制御プロセッサ702は、運転タスクに従って実行した運転制御の結果として、位置、運動状態(例えば加減速度及び操舵量等)、及び走行環境(例えば地図情報等)をホスト車両Vhに関して表す実運転データDadを、生成する。このとき生成された実運転データDadは、監視ユニット10及び認識ユニット20の各プロセッサ102,202へ、伝送経路82,22を通じて伝送されることになる。 In the driving control process, the driving control processor 702 controls the driving tasks of the host vehicle Vh, including the automatic driving control, based on the driving command data Dcd and the in-vehicle sensing data Dsi. Furthermore, in the driving control process, the driving control processor 702 generates actual driving data Dad representing the position, motion state (e.g., acceleration/deceleration and steering amount, etc.), and driving environment (e.g., map information, etc.) of the host vehicle Vh as a result of the driving control executed according to the driving task. The actual driving data Dad generated at this time is transmitted to the processors 102, 202 of the monitoring unit 10 and the recognition unit 20 via the transmission paths 82, 22.

以上説明した制御システム9が、ホスト車両Vhにおいて車外センサ系3により取得された車外センシングデータDsoの、ロガーユニット5への収集処理を制御する制御方法は、図5に示す制御フローに従って実行される。ここで制御フローは、各ユニット10,20,5,7においてメモリ103,203,503,703に記憶された個別制御プログラムの集合によって構成される制御プログラムがプロセッサ102,202,502,702にそれぞれ命令を実行させることで、ホスト車両Vhの起動中に制御周期毎に繰り返される。尚、制御フローにおける各「S」は、個別制御プログラム毎に含まれた命令により実行されるステップを、それぞれ意味している。 The control method in which the control system 9 described above controls the collection process of the outside sensing data Dso acquired by the outside sensor system 3 in the host vehicle Vh to the logger unit 5 is executed according to the control flow shown in FIG. 5. Here, the control flow is repeated every control period during the startup of the host vehicle Vh by the control program composed of a set of individual control programs stored in the memories 103, 203, 503, 703 of each unit 10, 20, 5, 7 causing the processors 102, 202, 502, 702 to execute instructions. Note that each "S" in the control flow refers to a step executed by an instruction included in each individual control program.

S101において車外センサ系3は、ホスト車両Vhの外界をセンシングすることで、現在制御周期での車外センシングデータDsoを取得する。制御フローでは、S101でのデータDsoの取得に応答して、S102とS103とが並列的に処理される。 In S101, the external sensor system 3 senses the external environment of the host vehicle Vh to obtain external sensing data Dso for the current control cycle. In the control flow, in response to the acquisition of data Dso in S101, S102 and S103 are processed in parallel.

S102においてロガーユニット5は、車外センサ系3からの車外センシングデータDsoをロギング記憶媒体504へ記憶する。一方、S103において認識ユニット20は、車外センサ系3からの車外センシングデータDso及び運転制御ユニット7からの実運転データDadに基づきホスト車両Vhの現在走行シーンを認識した、認識データDrを生成する。制御フローでは、S103での認識データDrの生成に応答して、S104~S106とS107~S109とが並列的に処理される。 In S102, the logger unit 5 stores the outside-vehicle sensing data Dso from the outside-vehicle sensor system 3 in the logging storage medium 504. Meanwhile, in S103, the recognition unit 20 generates recognition data Dr that recognizes the current driving scene of the host vehicle Vh based on the outside-vehicle sensing data Dso from the outside-vehicle sensor system 3 and the actual driving data Dad from the driving control unit 7. In the control flow, in response to the generation of the recognition data Dr in S103, S104 to S106 and S107 to S109 are processed in parallel.

S104において認識ユニット20は、認識した走行シーンに応じてホスト車両Vhの将来運転を計画した、運転指令データDcdを生成する。S105において運転制御ユニット7は、認識ユニット20からの運転指令データDcd及び車内センサ系6からの車内センシングデータDsiとに基づき、ホスト車両Vhの運転を制御する。S106において運転制御ユニット7は、実行した運転制御によるホスト車両Vhの実運転データDadを、生成する。 In S104, the recognition unit 20 generates driving command data Dcd that plans future driving of the host vehicle Vh according to the recognized driving scene. In S105, the driving control unit 7 controls the driving of the host vehicle Vh based on the driving command data Dcd from the recognition unit 20 and the in-vehicle sensing data Dsi from the in-vehicle sensor system 6. In S106, the driving control unit 7 generates actual driving data Dad of the host vehicle Vh based on the executed driving control.

これらのS104~S106に対し、S107において監視ユニット10は、認識ユニット20からの認識データDr及び運転制御ユニット7からの実運転データDadに基づき、現在走行シーンとシーンモデルMsとのマッチング度を監視する。S107において監視されたマッチング度が必要範囲外まで低下している場合には、制御フローがS108へ移行する。S108において監視ユニット10は、マッチング度が必要範囲外に低下した走行シーンを除外シーンseとして、当該除外シーンseに取得された車外センシングデータDsoの収集対象からの除外をロガーユニット5へと指令する収集指令データDclを、生成する。 In contrast to S104 to S106, in S107 the monitoring unit 10 monitors the matching degree between the current driving scene and the scene model Ms based on the recognition data Dr from the recognition unit 20 and the actual driving data Dad from the driving control unit 7. If the matching degree monitored in S107 has fallen outside the required range, the control flow proceeds to S108. In S108, the monitoring unit 10 generates collection command data Dcl that commands the logger unit 5 to exclude the outside-vehicle sensing data Dso acquired in the excluded scene se from the collection targets, by designating the driving scene in which the matching degree has fallen outside the required range as an excluded scene se.

S109においてロガーユニット5は、監視ユニット10からの収集指令データDclに応答して、S102によりロギング記憶媒体504に記憶された車外センシングデータDsoのうち、収集指令データDclに含まれる除外シーンseと対応したデータを、削除する。これにより、除外シーンseに取得された車外センシングデータDsoは、ロガーユニット5における収集対象から除外されることになる。尚、S107において監視されたマッチング度が必要範囲内に収まっている場合に制御フローでは、S108,S109がスキップされる。 In S109, in response to the collection command data Dcl from the monitoring unit 10, the logger unit 5 deletes the data corresponding to the excluded scene se included in the collection command data Dcl from the outside-vehicle sensing data Dso stored in the logging storage medium 504 by S102. As a result, the outside-vehicle sensing data Dso acquired in the excluded scene se is excluded from the data to be collected by the logger unit 5. Note that if the matching degree monitored in S107 is within the required range, S108 and S109 are skipped in the control flow.

(作用効果)
以上説明した本実施形態の作用効果を、以下に説明する。
(Action and Effect)
The effects of the present embodiment described above will be described below.

本実施形態では、車外センサ系3からの車外センシングデータDsoに基づき認識されたホスト車両Vhの走行シーンと、走行シーンがモデル化されてモデル記憶媒体104に記憶されたシーンモデルMsとの、マッチング度が監視プロセッサ102により監視される。そこで本実施形態によると、ロガーユニット5への収集に必要な必要範囲外にマッチング度が低下した走行シーンである、除外シーンseに取得された車外センシングデータDsoについては、収集対象からの除外が監視プロセッサ102からロガーユニット5へ指令される。これによれば、シーンモデルMsとのマッチング度がロガーユニット5への収集に必要な必要範囲内となる走行シーンでの、高品質の車外センシングデータDsoに収集対象を限定して、車外センシングデータDsoの選別収集を効率的に行うことが可能となる。 In this embodiment, the monitoring processor 102 monitors the degree of matching between the driving scene of the host vehicle Vh recognized based on the outside sensing data Dso from the outside sensor system 3 and the scene model Ms in which the driving scene is modeled and stored in the model storage medium 104. Therefore, according to this embodiment, the monitoring processor 102 instructs the logger unit 5 to exclude from collection the outside sensing data Dso acquired in the excluded scene se, which is a driving scene in which the degree of matching has fallen to outside the necessary range required for collection in the logger unit 5. This makes it possible to efficiently select and collect the outside sensing data Dso by limiting the collection target to high-quality outside sensing data Dso in driving scenes in which the degree of matching with the scene model Ms is within the necessary range required for collection in the logger unit 5.

本実施形態によると、車外センシングデータDsoを車外センサ系3からロガーユニット5へ伝送するデータ伝送経路80と、監視プロセッサ102との間は、中継経路19により中継される。これによれば、監視プロセッサ102の生成した収集指令データDclが中継経路19から車外センシングデータDsoのデータ伝送経路80を通じて伝送されることで、除外シーンseに取得された車外センシングデータDsoの収集対象からの除外がロガーユニット5へと指令されることになる。これによれば、シーンモデルMsとのマッチング度がロガーユニット5への収集に必要な必要範囲内となる走行シーンでの、高品質の車外センシングデータDsoに収集対象を限定して、車外センシングデータDsoの選別収集を効率的に行うための構成を、簡素化することが可能となる。 According to this embodiment, the data transmission path 80 that transmits the outside-vehicle sensing data Dso from the outside-vehicle sensor system 3 to the logger unit 5 is relayed between the monitoring processor 102 and the relay path 19. According to this, the collection command data Dcl generated by the monitoring processor 102 is transmitted from the relay path 19 through the data transmission path 80 for the outside-vehicle sensing data Dso, and the logger unit 5 is instructed to exclude the outside-vehicle sensing data Dso acquired in the excluded scene se from the collection target. According to this, it is possible to simplify the configuration for efficiently selecting and collecting the outside-vehicle sensing data Dso by limiting the collection target to high-quality outside-vehicle sensing data Dso in a driving scene in which the matching degree with the scene model Ms is within the necessary range required for collection in the logger unit 5.

本実施形態によると、車外センシングデータDsoに基づき認識プロセッサ202が認識した走行シーンは、当該認識プロセッサ202から監視プロセッサ102へ与えられる。これによれば、マッチング度の監視及び除外の指令は、処理負荷の比較的高くなる走行シーンの認識処理とは別のプロセッサ102によることで、高速に処理され得る。故に、次々に取得される車外センシングデータDsoの選別収集であっても、効率的に行うことが可能となる。 According to this embodiment, the driving scene recognized by the recognition processor 202 based on the outside-vehicle sensing data Dso is provided from the recognition processor 202 to the monitoring processor 102. In this way, the command to monitor and exclude the matching degree can be processed at high speed by a processor 102 separate from the driving scene recognition process, which has a relatively high processing load. Therefore, even the selective collection of the outside-vehicle sensing data Dso that is acquired one after another can be performed efficiently.

本実施形態の認識プロセッサ202は、認識した走行シーンに応じてホスト車両Vhの運転を計画する。これによれば、認識された走行シーンに基づくマッチング度の監視及び除外の指令は、当該走行シーンに応じたホスト車両Vhの運転計画処理とは別のプロセッサ102により迅速に処理され得る。故に、次々に取得される車外センシングデータDsoの選別収集を、同じセンシングデータDsoを用いる他の処理と同時的に、効率的に行うことが可能となる。 The recognition processor 202 of this embodiment plans the operation of the host vehicle Vh according to the recognized driving scene. In this way, the command to monitor and exclude the matching degree based on the recognized driving scene can be quickly processed by a processor 102 separate from the driving plan processing of the host vehicle Vh according to the driving scene. Therefore, it is possible to efficiently select and collect the exterior sensing data Dso that is acquired one after another, simultaneously with other processing that uses the same sensing data Dso.

本実施形態によると、走行シーンとシーンモデルMsとのマッチング度が必要範囲外にマッチング度が低下した除外シーンseに取得の車外センシングデータDsoは、ロガーユニット5ではマッチング度の監視に基づく指令に応答して収集対象から除外されることになる。これによれば、シーンモデルMsとのマッチング度がロガーユニット5への収集に必要な必要範囲内となる走行シーンでの、高品質の車外センシングデータDsoに収集対象を限定して、車外センシングデータDsoの選別収集を効率的に行うことが可能となる。 According to this embodiment, the outside-vehicle sensing data Dso acquired in the excluded scene se where the matching degree between the driving scene and the scene model Ms falls outside the required range is excluded from the collection target in the logger unit 5 in response to a command based on the monitoring of the matching degree. This makes it possible to efficiently select and collect the outside-vehicle sensing data Dso by limiting the collection target to high-quality outside-vehicle sensing data Dso in driving scenes where the matching degree with the scene model Ms falls within the required range required for collection in the logger unit 5.

さて、別の視点で本実施形態では、車外センサ系3からの車外センシングデータDsoに基づき認識されたホスト車両Vhの走行シーンと、走行シーンがモデル化されたシーンモデルMsとの、マッチング度が監視される。そこで本実施形態によると、ロガーユニット5への収集に必要な必要範囲外にマッチング度が低下した走行シーンである、除外シーンseに取得された車外センシングデータDsoについては、収集対象からの除外がロガーユニット5へ指令される。さらに本実施形態によると、除外シーンseに取得された車外センシングデータDsoは、ロガーユニット5において収集対象から除外される。これらによれば、シーンモデルMsとのマッチング度がロガーユニット5への収集に必要な必要範囲内となる走行シーンでの、高品質の車外センシングデータDsoに収集対象を限定して、車外センシングデータDsoの選別収集を効率的に行うことが可能となる。 Now, from another perspective, in this embodiment, the matching degree between the traveling scene of the host vehicle Vh recognized based on the outside sensing data Dso from the outside sensor system 3 and the scene model Ms in which the traveling scene is modeled is monitored. Therefore, according to this embodiment, the logger unit 5 is instructed to exclude from collection the outside sensing data Dso acquired in the excluded scene se, which is a traveling scene in which the matching degree has fallen to outside the necessary range required for collection in the logger unit 5. Furthermore, according to this embodiment, the outside sensing data Dso acquired in the excluded scene se is excluded from collection in the logger unit 5. As a result, it is possible to efficiently perform selective collection of the outside sensing data Dso by limiting the collection target to high-quality outside sensing data Dso in a traveling scene in which the matching degree with the scene model Ms is within the necessary range required for collection in the logger unit 5.

(他の実施形態)
以上、一実施形態について説明したが、本開示は、当該説明の実施形態に限定して解釈されるものではなく、本開示の要旨を逸脱しない範囲内において種々の実施形態に適用することができる。
Other Embodiments
Although one embodiment has been described above, the present disclosure should not be construed as being limited to the embodiment described above, and can be applied to various embodiments within the scope not departing from the gist of the present disclosure.

変形例において監視SoC101、認識SoC201、ロギングSoC501及び運転制御ECU701を構成する専用コンピュータのうち少なくとも一種類は、デジタル回路及びアナログ回路の少なくとも一方をプロセッサとして有していてもよい。ここでデジタル回路とは、例えばASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、SOC(System on a Chip)、PGA(Programmable Gate Array)、及びCPLD(Complex Programmable Logic Device)等のうち、少なくとも一種類である。またこうしたデジタル回路は、プログラムを記憶したメモリを、有していてもよい。 In a modified example, at least one of the dedicated computers constituting the monitoring SoC101, the recognition SoC201, the logging SoC501, and the driving control ECU701 may have at least one of a digital circuit and an analog circuit as a processor. Here, the digital circuit is at least one of the following, for example: ASIC (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array), SOC (System on a Chip), PGA (Programmable Gate Array), and CPLD (Complex Programmable Logic Device). Such a digital circuit may also have a memory that stores a program.

変形例では、監視ユニット10(監視プロセッサ102)の一部処理が、ホスト車両Vhと通信可能な外部センタにおけるコンピュータ(プロセッサ)により実現されていてもよい。変形例では、認識ユニット20(認識プロセッサ202)の一部処理が、ホスト車両Vhと通信可能な外部センタにおけるコンピュータ(プロセッサ)により実現されていてもよい。変形例では、ロガーユニット5(収集プロセッサ502)の一部処理が、ホスト車両Vhと通信可能な外部センタにおけるコンピュータ(プロセッサ)により実現されていてもよい。変形例では、運転制御ユニット7(運転制御プロセッサ702)の一部処理が、ホスト車両Vhと通信可能な外部センタにおけるコンピュータ(プロセッサ)により実現されていてもよい。 In a modified example, some of the processing of the monitoring unit 10 (monitoring processor 102) may be realized by a computer (processor) in an external center capable of communicating with the host vehicle Vh. In a modified example, some of the processing of the recognition unit 20 (recognition processor 202) may be realized by a computer (processor) in an external center capable of communicating with the host vehicle Vh. In a modified example, some of the processing of the logger unit 5 (collection processor 502) may be realized by a computer (processor) in an external center capable of communicating with the host vehicle Vh. In a modified example, some of the processing of the driving control unit 7 (driving control processor 702) may be realized by a computer (processor) in an external center capable of communicating with the host vehicle Vh.

変形例では、車外センサ系3が車外制御装置1とは別の装置を構成していてもよい。変形例では、認識ユニット20が車外制御装置1とは別の装置を構成していてもよい。変形例では、認識ユニット20による認識処理及び運転計画処理が監視ユニット10により実行されることで、認識ユニット20が省かれていてもよい。変形例では、認識ユニット20により運転計画処理が実行されないことで、運転制御ユニット7及び車内センサ系6が制御システム9の範疇と、制御方法及び制御プログラムの適用対象とからは外れていてもよい。 In a modified example, the external sensor system 3 may constitute a device separate from the external control device 1. In a modified example, the recognition unit 20 may constitute a device separate from the external control device 1. In a modified example, the recognition unit 20 may be omitted by having the recognition process and driving plan process by the recognition unit 20 executed by the monitoring unit 10. In a modified example, the driving control unit 7 and the in-vehicle sensor system 6 may be excluded from the scope of the control system 9 and the application target of the control method and control program by not having the recognition unit 20 execute the driving plan process.

変形例では、車外センサ系3における少なくとも一部の外界センサ30が、車内センサ系6における外界センサ60のいずれかにより代替されていてもよい。ここで特に、一部の外界センサ30が外界センサ60のいずれかにより代替されている場合、又は代替されていない場合には、監視ユニット10及び認識ユニット20のうち少なくとも後者がホスト車両Vhのボディ内に配置されることで、車内制御系4を構成していてもよい。あるいは、全ての外界センサ30が外界センサ60のいずれかにより代替されている場合には、それら外界センサ30が省かれていてもよい。さらに、全ての外界センサ30が省かれている場合、監視ユニット10及び認識ユニット20がホスト車両Vhのボディ内に配置されることで、いずれも車内制御系4を構成していてもよい。尚、車内制御系4を構成する場合の認識ユニット20は、運転制御ユニット7とは別又は運転制御ECU701とは別の専用ユニットとして設けられていてもよいし、運転制御ユニット7又は運転制御ECU701により代替されていてもよい。 In a modified example, at least some of the external sensors 30 in the external sensor system 3 may be replaced by any of the external sensors 60 in the in-vehicle sensor system 6. In particular, when some of the external sensors 30 are replaced by any of the external sensors 60, or when they are not replaced, at least the latter of the monitoring unit 10 and the recognition unit 20 may be arranged in the body of the host vehicle Vh to constitute the in-vehicle control system 4. Alternatively, when all of the external sensors 30 are replaced by any of the external sensors 60, the external sensors 30 may be omitted. Furthermore, when all of the external sensors 30 are omitted, the monitoring unit 10 and the recognition unit 20 may be arranged in the body of the host vehicle Vh to constitute the in-vehicle control system 4. Note that the recognition unit 20 in the case of constituting the in-vehicle control system 4 may be provided as a dedicated unit separate from the driving control unit 7 or the driving control ECU 701, or may be replaced by the driving control unit 7 or the driving control ECU 701.

変形例では、ロガーユニット5がハウジング2内に収容されることで、車外制御装置1を構成していてもよい。変形例では、運転制御ユニット7がハウジング2内に収容されることで、車外制御装置1を構成していてもよい。変形例では、監視メモリ103及びモデル記憶媒体104が同一の記憶媒体により実現されていてもよい。変形例では、収集メモリ503及びロギング記憶媒体504が同一の記憶媒体により実現されていてもよい。変形例では、最大マッチングシーンsnmの一致率に変えて、シーンモデルMsと走行シーンとの間のコスト関数乃至は評価関数による演算結果が、マッチング度として規定されてもよい。 In a modified example, the logger unit 5 may be accommodated in the housing 2 to constitute the vehicle exterior control device 1. In a modified example, the driving control unit 7 may be accommodated in the housing 2 to constitute the vehicle exterior control device 1. In a modified example, the monitoring memory 103 and the model storage medium 104 may be realized by the same storage medium. In a modified example, the collection memory 503 and the logging storage medium 504 may be realized by the same storage medium. In a modified example, instead of the coincidence rate of the maximum matching scene snm, the calculation result by the cost function or evaluation function between the scene model Ms and the driving scene may be specified as the matching degree.

変形例の指令処理において監視ユニット10では、通信インタフェース12に接続された監視プロセッサ102により、通信インタフェース12又は車外センサ系3の各外界センサ30へと収集指令データDclがフィードバックされてもよい。これにより、通信インタフェース12又は車外センサ系3の各外界センサ30において車外センシングデータDsoの伝送レートが調整されることで、車外センシングデータDsoの伝送フレーム間にロガーユニット5への収集指令データDclが割り込まれてもよい。 In the command processing of the modified example, in the monitoring unit 10, the monitoring processor 102 connected to the communication interface 12 may feed back the collection command data Dcl to the communication interface 12 or each external sensor 30 of the external sensor system 3. This may adjust the transmission rate of the external sensing data Dso in the communication interface 12 or each external sensor 30 of the external sensor system 3, so that the collection command data Dcl to the logger unit 5 may be inserted between transmission frames of the external sensing data Dso.

変形例において制御システム9の適用されるホスト車両Vhは、例えば走行をリモート制御可能な走行ロボット等であってもよい。ここまでの説明形態の他、上述の実施形態及び変形例による制御装置1は、監視ユニット10を実現する半導体装置(例えば半導体チップ等)として、実施されてもよい。 In the modified example, the host vehicle Vh to which the control system 9 is applied may be, for example, a traveling robot whose traveling can be remotely controlled. In addition to the forms described so far, the control device 1 according to the above-mentioned embodiments and modified examples may be implemented as a semiconductor device (e.g., a semiconductor chip, etc.) that realizes the monitoring unit 10.

1:制御装置、3:センサ系、5:ロガーユニット、19:中継経路、80:データ伝送経路、102:監視プロセッサ、202:認識プロセッサ、502:収集プロセッサ、702:運転制御プロセッサ、103:監視メモリ、203:認識メモリ、503:収集メモリ、703:運転制御メモリ、104:モデル記憶媒体、Dcl:収集指令データ、Dso:車外センシングデータ、Ms:シーンモデル、Vh:ホスト車両、se:除外シーン 1: Control device, 3: Sensor system, 5: Logger unit, 19: Relay path, 80: Data transmission path, 102: Monitoring processor, 202: Recognition processor, 502: Collection processor, 702: Driving control processor, 103: Monitoring memory, 203: Recognition memory, 503: Collection memory, 703: Driving control memory, 104: Model storage medium, Dcl: Collection command data, Dso: Outside vehicle sensing data, Ms: Scene model, Vh: Host vehicle, se: Excluded scene

Claims (12)

ホスト車両(Vh)においてセンサ系(3)により取得されたセンシングデータ(Dso)の、ロガーユニット(5)への収集処理を制御する制御装置であって、
前記ホスト車両の走行シーンがモデル化されたシーンモデル(Ms)であって、前記ロガーユニットへの収集に向けてインタラクションの想定が必要なオブジェクトの相対位置に応じた認識率分布を収集必要シーン毎に規定するシーンモデルを記憶する記憶媒体(104)と、
前記センシングデータに基づき認識された前記走行シーンと、記憶された前記シーンモデルとの、マッチング度を監視することにより、前記ロガーユニットへの収集に必要な必要範囲外に前記マッチング度が低下した前記走行シーンである、除外シーン(se)に取得された前記センシングデータの収集対象からの除外を前記ロガーユニットへ指令する監視プロセッサ(102)とを、備える制御装置。
A control device that controls a collection process of sensing data (Dso) acquired by a sensor system (3) in a host vehicle (Vh) into a logger unit (5),
a storage medium (104) for storing a scene model (Ms) in which a driving scene of the host vehicle is modeled, the scene model defining, for each scene to be collected, a recognition rate distribution according to a relative position of an object whose interaction needs to be assumed for collection into the logger unit;
A control device comprising: a monitoring processor (102) that monitors the degree of matching between the driving scene recognized based on the sensing data and the stored scene model, and instructs the logger unit to exclude from collection the sensing data acquired in an excluded scene (se), which is a driving scene in which the degree of matching has fallen outside the required range for collection in the logger unit.
前記センシングデータを前記センサ系から前記ロガーユニットへ伝送するデータ伝送経路(80)と、
前記監視プロセッサ及び前記データ伝送経路間を中継する中継経路(19)とを、さらに備え、
前記監視プロセッサは、前記除外シーンに取得された前記センシングデータの収集対象からの除外を指令するように生成した収集指令データ(Dcl)を、前記中継経路から前記データ伝送経路を通じて前記ロガーユニットへ伝送する、請求項1に記載の制御装置。
a data transmission path (80) for transmitting the sensing data from the sensor system to the logger unit;
and a relay path (19) that relays between the monitoring processor and the data transmission path,
The control device according to claim 1, wherein the monitoring processor transmits collection command data (Dcl) generated to command the exclusion of the sensing data acquired in the excluded scene from collection targets, from the relay path through the data transmission path to the logger unit.
前記センシングデータに基づき認識した前記走行シーンを、前記監視プロセッサへ与える認識プロセッサ(202)を、さらに備える請求項1又は2に記載の制御装置。 The control device according to claim 1 or 2, further comprising a recognition processor (202) that provides the driving scene recognized based on the sensing data to the monitoring processor. 前記認識プロセッサは、認識した前記走行シーンに応じて、前記ホスト車両の運転を計画する請求項3に記載の制御装置。 The control device according to claim 3, wherein the recognition processor plans the operation of the host vehicle according to the recognized driving scene. ホスト車両(Vh)においてセンサ系(3)により取得されたセンシングデータ(Dso)の、収集処理を制御する制御システムであって、
請求項1~4のいずれか一項に記載の制御装置(1)と、
前記センシングデータを記憶するロガーユニット(5)であって、前記除外シーンに取得された前記センシングデータを、前記監視プロセッサからの指令に応答して収集対象から除外するロガーユニットとを、含んで構成される制御システム。
A control system for controlling a collection process of sensing data (Dso) acquired by a sensor system (3) in a host vehicle (Vh),
A control device (1) according to any one of claims 1 to 4,
A control system comprising: a logger unit (5) that stores the sensing data, and the logger unit that excludes the sensing data acquired in the excluded scene from being collected in response to a command from the surveillance processor.
少なくとも一つのプロセッサ(102,202)を含んで構成され、ホスト車両(Vh)においてセンサ系(3)により取得されたセンシングデータ(Dso)の、ロガーユニット(5)への収集処理を制御する制御装置であって、
前記プロセッサは、
前記センシングデータに基づき認識された前記ホスト車両の走行シーンと、当該走行シーンがモデル化されたシーンモデル(Ms)であって、前記ロガーユニットへの収集に向けてインタラクションの想定が必要なオブジェクトの相対位置に応じた認識率分布を収集必要シーン毎に規定するシーンモデルとの、マッチング度を監視することと、
前記ロガーユニットへの収集に必要な必要範囲外に前記マッチング度が低下した前記走行シーンである、除外シーン(se)に取得された前記センシングデータの収集対象からの除外を前記ロガーユニットへ指令することとを、実行するように構成される制御装置。
A control device including at least one processor (102, 202) for controlling a collection process of sensing data (Dso) acquired by a sensor system (3) in a host vehicle (Vh) into a logger unit (5),
The processor,
monitoring a matching degree between a traveling scene of the host vehicle recognized based on the sensing data and a scene model (Ms) in which the traveling scene is modeled, the scene model defining, for each scene to be collected, a recognition rate distribution according to a relative position of an object whose interaction needs to be assumed for collection into the logger unit;
A control device configured to execute the following: instructing the logger unit to exclude from collection the sensing data acquired in an excluded scene (se), which is the driving scene in which the matching degree has fallen outside the required range required for collection in the logger unit.
前記プロセッサは、
前記ホスト車両の走行シーンを前記センシングデータに基づき認識することを、さらに実行するように構成される請求項6に記載の制御装置。
The processor,
The control device according to claim 6 , further configured to recognize a driving scene of the host vehicle based on the sensing data.
ホスト車両(Vh)においてセンサ系(3)により取得されたセンシングデータ(Dso)の、ロガーユニット(5)への収集処理を制御するために、少なくとも一つのプロセッサ(102,202)により実行される制御方法であって、
前記センシングデータに基づき認識された前記ホスト車両の走行シーンと、当該走行シーンがモデル化されたシーンモデル(Ms)であって、前記ロガーユニットへの収集に向けてインタラクションの想定が必要なオブジェクトの相対位置に応じた認識率分布を収集必要シーン毎に規定するシーンモデルとの、マッチング度を監視することと、
前記ロガーユニットへの収集に必要な必要範囲外に前記マッチング度が低下した前記走行シーンである、除外シーン(se)に取得された前記センシングデータの収集対象からの除外を前記ロガーユニットへ指令することを、含む制御方法。
A control method executed by at least one processor (102, 202) for controlling a collection process of sensing data (Dso) acquired by a sensor system (3) in a host vehicle (Vh) into a logger unit (5), comprising:
monitoring a matching degree between a traveling scene of the host vehicle recognized based on the sensing data and a scene model (Ms) in which the traveling scene is modeled, the scene model defining, for each scene to be collected, a recognition rate distribution according to a relative position of an object whose interaction needs to be assumed for collection into the logger unit;
A control method including instructing the logger unit to exclude from collection targets the sensing data acquired in an excluded scene (se), which is the driving scene in which the matching degree has fallen outside the required range required for collection in the logger unit.
ホスト車両(Vh)においてセンサ系(3)により取得されたセンシングデータ(Dso)の、ロガーユニット(5)への収集処理を制御するために少なくとも一つの記憶媒体(103,203)に記憶され、少なくとも一つのプロセッサ(102,202)に実行させる命令を含む制御プログラムであって、
前記命令は、
前記センシングデータに基づき認識された前記ホスト車両の走行シーンと、当該走行シーンがモデル化されたシーンモデル(Ms)であって、前記ロガーユニットへの収集に向けてインタラクションの想定が必要なオブジェクトの相対位置に応じた認識率分布を収集必要シーン毎に規定するシーンモデルとの、マッチング度を監視させることと、
前記ロガーユニットへの収集に必要な必要範囲外に前記マッチング度が低下した前記走行シーンである、除外シーン(se)に取得された前記センシングデータの収集対象からの除外を前記ロガーユニットへ指令させることを、含む制御プログラム。
A control program stored in at least one storage medium (103, 203) for controlling a collection process of sensing data (Dso) acquired by a sensor system (3) in a host vehicle (Vh) into a logger unit (5), the control program including instructions to be executed by at least one processor (102, 202),
The instruction:
monitoring a matching degree between a traveling scene of the host vehicle recognized based on the sensing data and a scene model (Ms) in which the traveling scene is modeled, the scene model defining, for each scene to be collected, a recognition rate distribution according to a relative position of an object whose interaction needs to be assumed for collection into the logger unit;
A control program including instructing the logger unit to exclude from collection the sensing data acquired in an excluded scene (se), which is a driving scene in which the matching degree has fallen outside the necessary range required for collection by the logger unit.
少なくとも一つのプロセッサ(102,202,502,702)を含んで構成され、ホスト車両(Vh)においてセンサ系(3)により取得されたセンシングデータ(Dso)の、ロガーユニット(5)への収集処理を制御する制御システムであって、
前記プロセッサは、
前記センシングデータに基づき認識された前記ホスト車両の走行シーンと、当該走行シーンがモデル化されたシーンモデル(Ms)であって、前記ロガーユニットへの収集に向けてインタラクションの想定が必要なオブジェクトの相対位置に応じた認識率分布を収集必要シーン毎に規定するシーンモデルとの、マッチング度を監視することと、
前記ロガーユニットへの収集に必要な必要範囲外に前記マッチング度が低下した前記走行シーンである、除外シーン(se)に取得された前記センシングデータを前記ロガーユニットにおいて収集対象から除外することとを、実行するように構成される制御システム。
A control system including at least one processor (102, 202, 502, 702) for controlling a collection process of sensing data (Dso) acquired by a sensor system (3) in a host vehicle (Vh) into a logger unit (5),
The processor,
monitoring a matching degree between a traveling scene of the host vehicle recognized based on the sensing data and a scene model (Ms) in which the traveling scene is modeled, the scene model defining, for each scene to be collected, a recognition rate distribution according to a relative position of an object whose interaction needs to be assumed for collection into the logger unit;
and excluding the sensing data acquired in an excluded scene (se), which is the driving scene in which the matching degree has fallen outside the required range required for collection in the logger unit, from the data to be collected in the logger unit.
ホスト車両(Vh)においてセンサ系(3)により取得されたセンシングデータ(Dso)の、ロガーユニット(5)への収集処理を制御するために、少なくとも一つのプロセッサ(102,202,502,702)により実行される制御方法であって、
前記センシングデータに基づき認識された前記ホスト車両の走行シーンと、当該走行シーンがモデル化されたシーンモデル(Ms)であって、前記ロガーユニットへの収集に向けてインタラクションの想定が必要なオブジェクトの相対位置に応じた認識率分布を収集必要シーン毎に規定するシーンモデルとの、マッチング度を監視することと、
前記ロガーユニットへの収集に必要な必要範囲外に前記マッチング度が低下した前記走行シーンである、除外シーン(se)に取得された前記センシングデータを前記ロガーユニットにおいて収集対象から除外することとを、含む制御方法。
A control method executed by at least one processor (102, 202, 502, 702) for controlling a collection process of sensing data (Dso) acquired by a sensor system (3) in a host vehicle (Vh) into a logger unit (5), comprising:
monitoring a matching degree between a traveling scene of the host vehicle recognized based on the sensing data and a scene model (Ms) in which the traveling scene is modeled, the scene model defining, for each scene to be collected, a recognition rate distribution according to a relative position of an object whose interaction needs to be assumed for collection into the logger unit;
A control method comprising: excluding the sensing data acquired in an excluded scene (se), which is the driving scene in which the matching degree has fallen outside the necessary range required for collection in the logger unit, from the sensing data to be collected in the logger unit.
ホスト車両(Vh)においてセンサ系(3)により取得されたセンシングデータ(Dso)の、ロガーユニット(5)への収集処理を制御するために少なくとも一つの記憶媒体(103,203,503,703)に記憶され、少なくとも一つのプロセッサ(102,202,502,702)に実行させる命令を含む制御プログラムであって、
前記命令は、
前記センシングデータに基づき認識された前記ホスト車両の走行シーンと、当該走行シーンがモデル化されたシーンモデル(Ms)であって、前記ロガーユニットへの収集に向けてインタラクションの想定が必要なオブジェクトの相対位置に応じた認識率分布を収集必要シーン毎に規定するシーンモデルとの、マッチング度を監視させることと、
前記ロガーユニットへの収集に必要な必要範囲外に前記マッチング度が低下した前記走行シーンである、除外シーン(se)に取得された前記センシングデータを前記ロガーユニットにおいて収集対象から除外させることとを、含む制御プログラム。
A control program stored in at least one storage medium (103, 203, 503, 703) for controlling a collection process of sensing data (Dso) acquired by a sensor system (3) in a host vehicle (Vh) into a logger unit (5), the control program including instructions to be executed by at least one processor (102, 202, 502, 702),
The instruction:
monitoring a matching degree between a traveling scene of the host vehicle recognized based on the sensing data and a scene model (Ms) in which the traveling scene is modeled, the scene model defining, for each scene to be collected, a recognition rate distribution according to a relative position of an object whose interaction needs to be assumed for collection into the logger unit;
A control program including: excluding the sensing data acquired in an excluded scene (se), which is a driving scene in which the matching degree has fallen outside the necessary range required for collection in the logger unit, from the sensing data to be collected in the logger unit.
JP2021185010A 2021-11-12 2021-11-12 Control device, control system, control method, and control program Active JP7501499B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021185010A JP7501499B2 (en) 2021-11-12 2021-11-12 Control device, control system, control method, and control program
PCT/JP2022/039486 WO2023085062A1 (en) 2021-11-12 2022-10-24 Control device, control system, control method, control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021185010A JP7501499B2 (en) 2021-11-12 2021-11-12 Control device, control system, control method, and control program

Publications (3)

Publication Number Publication Date
JP2023072448A JP2023072448A (en) 2023-05-24
JP2023072448A5 JP2023072448A5 (en) 2023-08-16
JP7501499B2 true JP7501499B2 (en) 2024-06-18

Family

ID=86335718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021185010A Active JP7501499B2 (en) 2021-11-12 2021-11-12 Control device, control system, control method, and control program

Country Status (2)

Country Link
JP (1) JP7501499B2 (en)
WO (1) WO2023085062A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019077685A1 (en) 2017-10-17 2019-04-25 本田技研工業株式会社 Running model generation system, vehicle in running model generation system, processing method, and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019077685A1 (en) 2017-10-17 2019-04-25 本田技研工業株式会社 Running model generation system, vehicle in running model generation system, processing method, and program

Also Published As

Publication number Publication date
WO2023085062A1 (en) 2023-05-19
JP2023072448A (en) 2023-05-24

Similar Documents

Publication Publication Date Title
US10983524B2 (en) Sensor aggregation framework for autonomous driving vehicles
JP6791290B2 (en) Vehicle control method
CN108291813B (en) Position data fusion by means of an attitude map
CN111380534B (en) ST-chart-based learning method for automatically driving vehicle
CN107798699A (en) Depth map estimation is carried out with stereo-picture
CN112543876B (en) System for sensor synchronicity data analysis in an autonomous vehicle
CN110390240B (en) Lane post-processing in an autonomous vehicle
CN111812698A (en) Positioning method, device, medium and equipment
CN110936959B (en) On-line diagnosis and prediction of vehicle perception system
CN111399495B (en) Autopilot computing and storage expansion device with flexible host and client configuration
EP4343370A1 (en) Calibration method and device for automatic driving vehicle
US20220254204A1 (en) Checkpoint-Based Tracing for Monitoring a Robotic System
US20220333933A1 (en) Enhanced vehicle and trailer operation
CN111696374A (en) Information processing device and automatic travel control system including the same
CN115269371A (en) Platform for path planning system development of an autonomous driving system
CN112712608B (en) System and method for collecting performance data by a vehicle
JP7501499B2 (en) Control device, control system, control method, and control program
CN111885542A (en) Synchronous sensing system
CN116580374A (en) Vehicle positioning
CN113936058A (en) Vehicle-based data acquisition
JP2021068263A (en) Landing support system
JP7312856B2 (en) Method and apparatus for processing sensor data
EP4148600A1 (en) Attentional sampling for long range detection in autonomous vehicles
US20240199024A1 (en) Lane-based vehicle control
US20240123986A1 (en) Control device, control method, and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230807

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240520

R150 Certificate of patent or registration of utility model

Ref document number: 7501499

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150