CN110007301B - 物体识别装置、物体识别方法以及车辆 - Google Patents

物体识别装置、物体识别方法以及车辆 Download PDF

Info

Publication number
CN110007301B
CN110007301B CN201811310772.XA CN201811310772A CN110007301B CN 110007301 B CN110007301 B CN 110007301B CN 201811310772 A CN201811310772 A CN 201811310772A CN 110007301 B CN110007301 B CN 110007301B
Authority
CN
China
Prior art keywords
sensor
reliability
vehicle
determination
detection result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811310772.XA
Other languages
English (en)
Other versions
CN110007301A (zh
Inventor
向井拓幸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of CN110007301A publication Critical patent/CN110007301A/zh
Application granted granted Critical
Publication of CN110007301B publication Critical patent/CN110007301B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Electromagnetism (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Databases & Information Systems (AREA)
  • Game Theory and Decision Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Pathology (AREA)
  • Immunology (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Steering Control In Accordance With Driving Conditions (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供能够进行高可靠度的物体识别的物体识别装置。用于识别物体的物体识别装置具备:第一物体判定部,其至少基于第一传感器以及第二传感器对物体进行检测而得到的检测结果来判定物体;第二物体判定部,其至少基于第三传感器以及第四传感器对物体进行检测而得到的检测结果来判定物体;物体识别部,其基于第一物体判定部以及第二物体判定部的至少一方的判定结果来识别物体;第一计算部,其计算第一传感器的检测结果与第二传感器的检测结果之差;第二计算部,其计算第三传感器的检测结果与第四传感器的检测结果之差;以及可靠度决定部,其基于第一计算部以及第二计算部的计算结果来决定第一物体判定部以及第二物体判定部的判定结果的可靠度。

Description

物体识别装置、物体识别方法以及车辆
相关申请的交叉引用
本申请要求享有于2017年12月13日提交的名称为“物体识别装置,物体识别方法以及车辆”的日本专利申请2017-238857的优先权,该申请的全部内容通过引用并入本文中。
技术领域
本发明涉及物体识别装置、物体识别方法以及车辆。
背景技术
正在开发各种各样的与车辆的自动驾驶有关的技术。在专利文献1中,记载有如下技术:基于由车辆上搭载的雷达传感器以及CCD摄像机所检测到的周围的行驶环境信息而对前方是否有障碍物进行判定。分别运算出与雷达传感器所检测到的周围状况有关的获取信息的可靠度以及与CCD摄像机所检测到的周围状况有关的获取信息的可靠度。以与雷达传感器以及CCD摄像机所检测到的障碍物有关的大小、位置等的一致度越高则上述可靠度越高的方式来进行运算。
现有技术文献
专利文献
专利文献1:日本特开2007-176265号公报
发明内容
发明所要解决的问题
当汇总多个传感器的检测结果来判定物体的判定部存在多个***的情况下,上述判定结果有时会不一致。在以往的方法中,在这种情况下,难以进行高可靠度的物体识别。本发明的一部分方面的目的在于,进行高可靠度的物体识别。
用于解决问题的方法
根据一部分实施方式,提供一种物体识别装置,是用于识别物体的物体识别装置,其特征在于,具备:第一物体判定部,其至少基于第一传感器以及第二传感器对上述物体进行检测而得到的检测结果来判定上述物体;第二物体判定部,其至少基于第三传感器以及第四传感器对上述物体进行检测而得到的检测结果来判定上述物体;物体识别部,其基于上述第一物体判定部以及上述第二物体判定部的至少一方的判定结果来识别上述物体;第一计算部,其计算上述第一传感器的检测结果与上述第二传感器的检测结果之差;第二计算部,其计算上述第三传感器的检测结果与上述第四传感器的检测结果之差;以及可靠度决定部,其基于上述第一计算部以及上述第二计算部的计算结果来决定上述第一物体判定部以及上述第二物体判定部的判定结果的可靠度。
根据其他实施方式,提供一种用于识别物体的方法,包括:第一物体判定步骤,在该步骤中,至少基于第一传感器以及第二传感器对上述物体进行检测而得到的检测结果来判定上述物体;第二物体判定步骤,在该步骤中,至少基于第三传感器以及第四传感器对上述物体进行检测而得到的检测结果来判定上述物体;物体识别步骤,在该步骤中,基于上述第一物体判定步骤以及上述第二物体判定步骤的至少一方的判定结果来识别上述物体;第一计算步骤,在该步骤中,计算上述第一传感器的检测结果与上述第二传感器的检测结果之差;第二计算步骤,在该步骤中,计算上述第三传感器的检测结果与上述第四传感器的检测结果之差;以及可靠度决定步骤,在该步骤中,基于上述第一计算步骤以及上述第二计算步骤的计算结果来决定上述第一物体判定步骤以及上述第二物体判定步骤的判定结果的可靠度。
发明效果
根据本发明,能够进行高可靠度的物体识别。
附图说明
图1是实施方式所涉及的车辆用控制***的框图。
图2是实施方式所涉及的车辆用控制***的框图。
图3是实施方式所涉及的车辆用控制***的框图。
图4是实施方式所涉及的车辆用控制***的框图。
图5是对实施方式所涉及的物体识别方法进行说明的流程图。
图6是对实施方式所涉及的本车辆的外部的物体进行说明的示意图。
附图标记说明
1:车辆用控制***;20A:ECU;21A:ECU;21B:ECU;31A:摄像机;31B:摄像机;32A:光学雷达;32B:雷达。
具体实施方式
图1~图4,是本发明的一个实施方式所涉及的车辆用控制***1的框图。控制***1对车辆V进行控制。在图1以及图2中,通过俯视图与侧视图示出了车辆V的概要。作为一个例子,车辆V为轿车型的四轮乘用车。控制***1包括控制装置1A与控制装置1B。图1是表示控制装置1A的框图,图2是表示控制装置1B的框图。图3主要示出了控制装置1A与控制装置1B之间的通信线路以及电源的构成。
控制装置1A和控制装置1B对车辆V所实现的一部分的功能进行了复用化或者冗余化。由此能够提高***的可靠性。控制装置1A例如在自动驾驶控制、手动驾驶中的通常的动作控制之外,也进行与危险避免等有关的行驶辅助控制。控制装置1B主要负责与危险避免等有关的行驶辅助控制。有时将行驶辅助称为驾驶辅助。在通过控制装置1A和控制装置1B使功能冗余化的同时,使控制装置1A和控制装置1B执行不同的控制处理,在实现控制处理的分散化的同时,能够提高可靠性。
本实施方式的车辆V为并联方式的混合动力车辆,在图2中,示意性地图示了输出使得车辆V的驱动轮旋转的驱动力的动力装置50的构成。动力装置50具有内燃机EG、马达M以及自动变速器TM。马达M能够作为使得车辆V加速的驱动源使用,并且也能够在减速时等作为发电机使用(再生制动)。
<控制装置1A>
参照图1对控制装置1A的构成进行说明。控制装置1A包括ECU组(控制单元组)2A。ECU组2A包括多个ECU20A~29A。各ECU包括:以CPU为代表的处理器、半导体存储器等存储设备以及与外部设备的接口等。在存储设备中保存有处理器所执行的程序、处理器在处理中使用的数据等。各ECU也可以具备多个处理器、存储设备以及接口等。此外,能够对ECU的数量、担当的功能适当地进行设计,也可以比本实施方式更加细化或者综合。此外,在图1以及图3中,标注了ECU20A~29A的代表性的功能的名称。例如,ECU20A记载为“自动驾驶ECU”。
ECU20A作为车辆V的行驶控制而执行与自动驾驶有关的控制。在自动驾驶中,不根据驾驶员的驾驶操作而自动地进行车辆V的驱动(由动力装置50进行的车辆V的加速等)、转向或者制动中的至少一项。在本实施方式中,自动地进行驱动、转向以及制动。
ECU21A是基于对车辆V的周围状况进行检测的检测单元31A、32A的检测结果而对车辆V的行驶环境进行识别的环境识别单元。ECU21A生成后述的目标数据作为周边环境信息。
在本实施方式的情况下,检测单元31A是通过摄像而对车辆V的周围的物体进行检测的摄像设备(以下,有时表述为摄像机31A。)。摄像机31A设置于车辆V的车顶前部,以能够对车辆V的前方进行摄像。通过对摄像机31A所拍摄的图像进行解析,能够对目标的轮廓、道路上的车道的划分线(白线等)进行提取。
在本实施方式的情况下,检测单元32A是通过光对车辆V的周围的物体进行检测的光学雷达(Light Detection and Ranging)(以下,有时表述为光学雷达32A),或者对车辆V的周围的目标进行探测,或者对与目标的距离进行测距。在本实施方式的情况下,设置有五个光学雷达32A,在车辆V的前部的各角部分别设置一个,在后部中央设置一个,在后部各侧方分别设置一个。可以适宜地选择光学雷达32A的数量、配置。
ECU29A是基于检测单元31A的检测结果,并作为车辆V的行驶控制而执行与行驶辅助(换言之驾驶辅助)有关的控制的行驶辅助单元。
ECU22A是对电动动力转向装置41A进行控制的转向控制单元。电动动力转向装置41A包括根据驾驶员对方向盘ST的驾驶操作(转向操作)而对前轮进行转向的机构。电动动力转向装置41A包括:或者对转向操作进行辅助或者发挥用于使前轮自动转向的驱动力的马达、对马达的旋转量进行检测的传感器、对驾驶员所负担的转向转矩进行检测的转矩传感器等。
ECU23A是对液压装置42A进行控制的制动控制单元。液压装置42A例如实现ESB(电动伺服制动器)。驾驶员对制动踏板BP的制动操作,在制动主缸BM中转换为液压并向液压装置42A传递。液压装置42A是能够基于从制动主缸BM传递的液压而对供给至在四个车轮分别设置的制动装置(例如盘式制动装置)51的工作油的液压进行控制的致动器,ECU23A进行液压装置42A所具备的电磁阀等的驱动控制。在本实施方式的情况下,ECU23A以及液压装置42A构成电动伺服制动器,ECU23A例如对四个制动装置51的制动力以及马达M的再生制动的制动力的分配进行控制。
ECU24A是对设置于自动变速器TM中的电动驻车锁止装置50a进行控制的停止维持控制单元。电动驻车锁止装置50a主要具备在选择P挡位(驻车挡位)时对自动变速器TM的内部机构进行锁止的机构。ECU24A能够对电动驻车锁止装置50a所进行的锁止以及锁止解除进行控制。
ECU25A是对向车内报告信息的信息输出装置43A进行控制的车内报告控制单元。信息输出装置43A例如包括平视显示器(Head-up display)等显示装置、语音输出装置。进一步地,也可以包括振动装置。ECU25A使信息输出装置43A输出例如车速、外部气温等各种信息、路线引导等信息。
ECU26A是对向车外报告信息的信息输出装置44A进行控制的车外报告控制单元。在本实施方式的情况下,信息输出装置44A为方向指示器(危险警示灯),ECU26A能够通过进行信息输出装置44A的点灭控制作为方向指示器而对车外报告车辆V的行进方向,另外,能够通过进行信息输出装置44A的点灭控制作为危险警示灯而使车外提高对车辆V的注意力。
ECU27A是对动力装置50进行控制的驱动控制单元。在本实施方式中,对动力装置50分配了一个ECU27A,但是也可以对内燃机EG、马达M以及自动变速器TM分别分配一个ECU。ECU27A,例如,与设置于油门踏板AP的操作检测传感器34a、设置于制动踏板BP的操作检测传感器34b所检测到的驾驶员的驾驶操作、车速等对应地对内燃机EG、马达M的输出进行控制,或者对自动变速器TM的变速挡进行切换。此外,在自动变速器TM中,作为对车辆V的行驶状态进行检测的传感器而设置有对自动变速器TM的输出轴的转速进行检测的转速传感器39。能够从转速传感器39的检测结果运算出车辆V的车速。
ECU28A是对车辆V的当前位置、行进路径进行识别的位置识别单元。ECU28A进行陀螺仪传感器33A、GPS传感器28b、通信装置28c的控制以及检测结果或者通信结果的信息处理。陀螺仪传感器33A对车辆V的旋转运动进行检测。通过陀螺仪传感器33A的检测结果等而能够对车辆V的行进路径进行判定。GPS传感器28b对车辆V的当前位置进行检测。通信装置28c与提供地图信息、交通信息的服务器进行无线通信来获取上述信息。在数据库28a中,能够保存高精度的地图信息,ECU28A基于该地图信息等,能够以更高精度确定车道上的车辆V的位置。
输入装置45A以驾驶员能够操作的方式配置于车内,并接收来自驾驶员的指示、信息的输入。
<控制装置1B>
参照图2对控制装置1B的构成进行说明。控制装置1B包括ECU组(控制单元组)2B。ECU组2B包括多个ECU21B~25B。各ECU包括,以CPU为代表的处理器、半导体存储器等存储设备、与外部设备的接口等。存储设备中保存有处理器所执行的程序、处理器在处理中使用的数据等。各ECU也可以具备多个处理器、存储设备以及接口等。此外,能够对ECU的数量、担当的功能适当地进行设计,也可以比本实施方式更加细化或者综合。此外,与ECU组2A同样,在图2以及图3中,标注了ECU21B~25B的代表性的功能的名称。
ECU21B是基于对车辆V的周围状况进行检测的检测单元31B、32B的检测结果而对车辆V的行驶环境进行识别的环境识别单元,并且是作为车辆V的行驶控制而执行与行驶辅助(换言之驾驶辅助)有关的控制的行驶辅助单元。ECU21B生成后述的目标数据作为周边环境信息。
此外,在本实施方式中,设定为ECU21B具有环境识别功能与行驶辅助功能的构成,但是也可以是如控制装置1A的ECU21A与ECU29A那样,按功能分别设置ECU。相反地,在控制装置1A中,也可以是如ECU21B那样,通过一个ECU来实现ECU21A与ECU29A的功能的构成。
在本实施方式的情况下,检测单元31B是通过摄像而对车辆V的周围的物体进行检测的摄像设备(以下,有时表述为摄像机31B。)。摄像机31B设置于车辆V的车顶前部,以能够对车辆V的前方进行摄像。通过对摄像机31B所拍摄的图像进行解析,能够对目标的轮廓、道路上的车道的划分线(白线等)进行提取。在本实施方式的情况下,检测单元32B是通过电波对车辆V的周围的物体进行检测的毫米波雷达(以下,有时表述为雷达32B),对车辆V的周围的目标进行检测或者对与目标的距离进行测距。在本实施方式的情况下,设置有五个雷达32B,在车辆V的前部中央设置一个,在前部各角部分别设置一个,在后部各角部分别设置一个。可以适宜地选择雷达32B的数量、配置。
ECU22B是对电动动力转向装置41B进行控制的转向控制单元。电动动力转向装置41B包括根据驾驶员对方向盘ST的驾驶操作(转向操作)而对前轮进行转向的机构。电动动力转向装置41B包含对转向操作进行辅助或者发挥用于使前轮自动转向的驱动力的马达、对马达的旋转量进行检测的传感器、对驾驶员所负担的转向转矩进行检测的转矩传感器等。另外,在ECU22B上经由后述的通信线路L2电连接有转向角传感器37,从而能够基于转向角传感器37的检测结果而对电动动力转向装置41B进行控制。ECU22B能够获取对驾驶员是否把持着方向盘ST进行检测的传感器36的检测结果,并能够监视驾驶员的把持状态。
ECU23B是对液压装置42B进行控制的制动控制单元。液压装置42B实现例如VSA(Vehicle Stability Assist车辆稳定辅助)。驾驶员对制动踏板BP的制动操作,在制动主缸BM中转换为液压并向液压装置42B传递。液压装置42B是能够基于从制动主缸BM传递的液压而对供给至各车轮的制动装置51的工作油的液压进行控制的致动器,ECU23B进行液压装置42B所具备的电磁阀等的驱动控制。
在本实施方式的情况下,在ECU23B以及液压装置42B上电连接有在四个车轮上分别设置的车轮速传感器38、偏航率传感器33B、以及对制动主缸BM内的压力进行检测的压力传感器35,基于上述传感器的检测结果实现ABS功能、牵引力控制以及车辆V的姿态控制功能。例如,ECU23B基于在四个车轮上分别设置的车轮速传感器38的检测结果而对各车轮的制动力进行调整,并对各车轮的滑行进行抑制。另外,基于偏航率传感器33B所检测到的车辆V的绕铅垂轴的旋转角速度而对各车轮的制动力进行调整,并对车辆V的急剧的姿态变化进行抑制。
另外,ECU23B还作为对向车外报告信息的信息输出装置43B进行控制的车外报告控制单元而发挥功能。在本实施方式的情况下,信息输出装置43B是制动灯,在制动时等ECU23B能够点亮制动灯。由此能够使后续车辆提高对车辆V的注意力。
ECU24B是对在后轮设置的电动驻车制动装置(例如鼓式制动器)52进行控制的停止维持控制单元。电动驻车制动装置52具备对后轮进行锁止的机构。ECU24B能够对电动驻车制动装置52所进行的后轮的锁止以及锁止解除进行控制。
ECU25B是对向车内报告信息的信息输出装置44B进行控制的车内报告控制单元。在本实施方式的情况下,信息输出装置44B包括配置于仪表盘的显示装置。ECU25B能够使得信息输出装置44B输出车速、油耗等各种信息。
输入装置45B以驾驶员能够操作的方式配置于车内,并接收来自驾驶员的指示、信息的输入。
<通信线路>
参照图3来说明将ECU之间连接为可通信的、控制***1的通信线路的例子。控制***1包括有线的通信线路L1~L7。在通信线路L1中连接有控制装置1A的各ECU20A~27A、29A。此外,ECU28A也可以与通信线路L1连接。
在通信线路L2中,连接有控制装置1B的各ECU21B~25B。另外,控制装置1A的ECU20A也与通信线路L2连接。通信线路L3将ECU20A和ECU21B连接,通信线路L4将ECU20A和ECU21A连接。通信线路L5将ECU20A、ECU21A以及ECU28A连接。通信线路L6将ECU29A和ECU21A连接。通信线路L7将ECU29A和ECU20A连接。
通信线路L1~L7的协议可以相同也可以不同,可以根据通信速度、通信量、耐久性等通信环境而不同。例如,通信线路L3以及L4在通信速度方面可以采用Ethernet(注册商标)。例如,通信线路L1、L2、L5~L7可以采用CAN。
控制装置1A具备网关GW。网关GW对通信线路L1与通信线路L2进行中转。因此,例如,ECU21B能够通过通信线路L2、网关GW以及通信线路L1而对ECU27A输出控制指令。
<电源>
参照图3对控制***1的电源进行说明。控制***1包括:大容量电池6、电源7A以及电源7B。大容量电池6是马达M的驱动用电池,并且是通过马达M进行充电的电池。
电源7A是向控制装置1A供给电力的电源,包括电源电路71A和电池72A。电源电路71A是将大容量电池6的电力向控制装置1A供给的电路,例如,将大容量电池6的输出电压(例如190V)降压至基准电压(例如12V)。电池72A例如为12V的铅电池。通过设置电池72A,即使在大容量电池6、电源电路71A的电力供给被切断或者降低的情况下,也能够向控制装置1A进行电力的供给。
电源7B是向控制装置1B供给电力的电源,包括电源电路71B和电池72B。电源电路71B是与电源电路71A同样的电路,且是将大容量电池6的电力向控制装置1B供给的电路。电池72B是与电池72A同样的电池,例如为12V的铅电池。通过设置电池72B,即使在大容量电池6、电源电路71B的电力供给被切断或者降低的情况下,也能够向控制装置1B进行电力的供给。
<整体构成>
参照图4从其他观点对车辆V的整体构成进行说明。车辆V包括:控制装置1A、控制装置1B、外界识别装置组82以及致动器组83。
外界识别装置组82是搭载于车辆V上的外界识别装置(传感器)的集合。外界识别装置组82包括:上述摄像机31A、摄像机31B、光学雷达32A以及雷达32B。摄像机31A以及光学雷达32A经由ECU21A与ECU20A连接。通过摄像机31A以及光学雷达32A获取的外界信息被供给至ECU20A,摄像机31A以及光学雷达32A依照来自ECU20A的指示而进行动作。摄像机31B以及雷达32B与ECU21B连接。通过摄像机31B以及雷达32B获取的外界信息被供给至ECU21B,摄像机31B以及雷达32B依照来自ECU21B的指示而进行动作。ECU21B也可以将通过摄像机31B以及雷达32B获取的外界信息供给至ECU20A。由此,ECU20A使用从摄像机31A、摄像机31B、光学雷达32A以及雷达32B分别获取的外界信息而能够执行自动驾驶的控制。摄像机31A和摄像机31B具有彼此相等的检测特性。例如,摄像机31A以及摄像机31B以可见光作为检测对象。
致动器组83是搭载于车辆V的致动器的集合。致动器组83包括:上述电动动力转向装置41A、电动动力转向装置41B、液压装置42A、液压装置42B以及动力装置50。电动动力转向装置41A、液压装置42A以及动力装置50经由ECU22A、ECU23A以及ECU27A与ECU20A连接。取而代之地,ECU20A也可以仅与电动动力转向装置41A、液压装置42A以及动力装置50中的一部分连接。电动动力转向装置41A、液压装置42A以及动力装置50依照来自ECU20A的指示而进行动作。电动动力转向装置41B以及液压装置42B经由ECU22B以及ECU23B与ECU21B连接。取而代之地,ECU21B也可以仅与电动动力转向装置41B以及液压装置42B的一部分连接。电动动力转向装置41B以及液压装置42B依照来自ECU21B的指示而进行动作。
动力装置50进行车辆V的驱动,因此是纵控制致动器的一种。进一步地,动力装置50通过变更左右车轮的驱动力的分配而能够变更车辆V的方向,因此还是横控制致动器的一种。液压装置42A以及液压装置42B分别进行车辆V的制动,因此是纵控制致动器的一种。进一步地,液压装置42A以及液压装置42B分别能够通过制动器转矩矢量来变更车辆V的方向,因此还是横控制致动器的一种。电动动力转向装置41A以及电动动力转向装置41B分别控制车辆V的转向,因此是横控制致动器的一种。
ECU20A通过通信路径与外界识别装置组82的一部分(摄像机31A以及光学雷达32A)进行通信,并且通过其他通信路径与致动器组83的一部分(电动动力转向装置41A、液压装置42A、动力装置50)进行通信。ECU21B通过通信路径与外界识别装置组82的一部分(摄像机31B以及雷达32B)进行通信,并且通过其他通信路径与致动器组83的一部分(电动动力转向装置41B、液压装置42B)进行通信。与ECU20A连接的通信路径和与ECU21B连接的通信路径可以彼此不同。上述通信路径例如为CAN(控制器局域网络),也可以是以太网(注册商标)。另外,ECU20A与ECU21B通过通信路径彼此连接。该通信路径例如为CAN(控制器局域网络),但是也可以是以太网。另外,也可以通过CAN与以太网的双方进行连接。
<控制例>
参照图5,对车辆V中的用于识别物体的方法进行说明。上述控制***1执行该方法。即,控制***1可以被称为物体识别装置。识别的物体是存在于车辆V的外部的物体,例如包括存在于车辆V周围的其他车辆、行人、固定的障碍物(防护栏等)。在以下的说明中,使用先行车辆601作为物体的例子。该方法例如在车辆V的自动驾驶中反复地(例如,以1ms的周期)执行。ECU20A基于物体的识别结果而进行自动驾驶。在车辆V的周围存在多个物体的情况下,可以针对各个物体进行以下处理。
在步骤S501中,ECU21A至少基于由摄像机31A以及光学雷达32A对先行车辆601进行检测而得到的检测结果而对先行车辆601进行判定。在该处理中,ECU21A作为物体识别部而发挥功能。在由摄像机31A对先行车辆601进行检测而得到的检测结果中,例如包括车辆V与先行车辆601之间的距离、先行车辆601的大小(宽度、高度)、先行车辆601的速度等。在由光学雷达32A对先行车辆601进行检测而得到的检测结果中可以包括同样的内容。对先行车辆601的判定,例如包括:通过将摄像机31A的检测结果与光学雷达32A的检测结果进行汇总来判定与先行车辆601的距离、先行车辆601的大小、先行车辆601的速度。取代由ECU21A进行步骤S501,例如也可以由ECU20A来进行步骤S501。
在步骤S502中,ECU21B至少基于由摄像机31B以及雷达32B对先行车辆601进行检测而得到的检测结果而对先行车辆601进行判定。在该处理中,ECU21B作为物体识别部而发挥功能。在由摄像机31B以及雷达32B对先行车辆601进行检测而得到的检测结果中,可以包括与由摄像机31A对先行车辆601进行检测而得到的检测结果同样的内容。取代由ECU21B进行步骤S502,例如也可以由ECU20A来进行步骤S502。可以以相反的顺序执行步骤S501和步骤S502,也可以并行地执行步骤S501和步骤S502。
在步骤S503中,ECU21A计算摄像机31A的检测结果与光学雷达32A的检测结果之差。在该处理中,ECU21A作为计算部而发挥功能。例如,在检测结果包括车辆V与先行车辆601之间的距离的情况下,ECU21A计算通过摄像机31A检测到的距离与通过光学雷达32A检测到的距离之差。在其他例子中,在检测结果包括先行车辆601的速度的情况下,ECU21A计算通过摄像机31A检测到的速度与通过光学雷达32A检测到的速度之差。取代由ECU21A进行步骤S503,例如也可以由ECU20A进行步骤S503。
在步骤S504中,ECU21B计算摄像机31B的检测结果与雷达32B的检测结果之差。在该处理中,ECU21B作为计算部而发挥功能。例如,在检测结果包括车辆V与先行车辆601之间的距离的情况下,ECU21B计算通过摄像机31B检测到的距离与通过雷达32B检测到的距离之差。在其他例子中,在检测结果包括先行车辆601的速度的情况下,ECU21B计算通过摄像机31B检测到的速度与通过雷达32B检测到的速度之差。取代由ECU21B进行步骤S504,例如也可以由ECU20A进行步骤S504。可以以相反的顺序执行步骤S503和步骤S504,也可以并行地执行步骤S503和步骤S504。
在步骤S505中,ECU20A对摄像机31A或光学雷达32A的检测结果与摄像机31B或雷达32B的检测结果之间是否存在规定的偏差进行判定。例如,ECU20A对摄像机31A的检测结果与摄像机31B的检测结果之间是否存在规定的偏差进行判定。ECU20A可以在一方的检测结果为另一方的检测结果的95%以下或者105%以上的情况下判定为存在偏差。当存在偏差的情况下(步骤S505中的“是”),处理进入步骤S506,当不存在偏差的情况下(步骤S505中的“否”),处理进入步骤S508。
在步骤S508中,ECU20A将S501中的判定结果与S502中的判定结果进一步进行汇总来识别先行车辆601。在该处理中,ECU20A作为物体识别部而发挥功能。为了进行识别而作为基础的判定结果可以是S501中的判定结果和S502中的判定结果的任一个。例如,可以预先设定为使用S501中的判定结果。在步骤S508中,ECU20A可以基于S501中的判定结果与S502中的判定结果的任一方来识别先行车辆601。
在步骤S506中,ECU20A基于步骤S503以及步骤S504中的计算结果来决定步骤S501以及步骤S502中的判定结果的可靠度。在该处理中,ECU20A作为可靠度判定部而发挥功能。例如,ECU20A可以将相对于一方的检测结果之差的比率作为步骤S501中的判定结果的可靠度。关于基于步骤S504中的计算结果的步骤S502中的判定结果的可靠度,也是同样。
例如,假定通过摄像机31A检测到的与先行车辆601的距离为95m,通过光学雷达32A检测到的与先行车辆601的距离为105m。在该情况下,步骤S503中的计算结果是两者之差为10m。因此,ECU20A将“10/95”设定为步骤S501中的判定结果的可靠度。同样地,假定通过摄像机31B检测到的与先行车辆601的距离为95m,通过雷达32B检测到的与先行车辆601的距离为100m。在该情况下,ECU20A将“5/95”设定为步骤S502中的判定结果的可靠度。
在步骤S507中,ECU20A对在步骤S506中决定的可靠度是否满足规定的条件进行判定。规定的条件是指,用于判断在车辆V的控制中使用步骤S501或者步骤S502的判定结果是不适当的条件。例如,ECU20A在至少一方的可靠度超出规定的阈值的情况下判定为满足规定的条件。在满足规定的条件的情况下(步骤S507中的“是”),处理进入步骤S509,在不满足规定的条件的情况下(步骤S507中的“否”),处理进入步骤S508。
在步骤S509中,ECU20A不基于ECU21B与ECU21A中的可靠度低的一方的判定结果而是基于可靠度高的一方的判定结果来识别先行车辆601。在步骤S506中决定的可靠度与两个传感器(例如,摄像机31A与光学雷达32A)之间的检测误差成反比例。因此,低可靠度意味着检测误差较大,因此不使用通过上述传感器进行的物体的判定结果来识别物体,在这种方法下,能够实现高精度的车辆V的控制。在上述方法中,可以使用位于传感器的检测精度(例如,检测距离的误差等)优异的规定范围内(例如,在计算距离之差的情况下为30m~50m)的物体来进行判定。
<实施方式的总结>
[构成1]
一种物体识别装置(1),用于识别物体(601),其特征在于,具备:
第一物体判定部(21A),其至少基于第一传感器(31A)以及第二传感器(32A)对上述物体进行检测而得到的检测结果来判定上述物体;
第二物体判定部(21B),其至少基于第三传感器(31B)以及第四传感器(32B)对上述物体进行检测而得到的检测结果来判定上述物体;
物体识别部(20A),其基于上述第一物体判定部以及上述第二物体判定部的至少一方的判定结果来识别上述物体;
第一计算部(20A),其计算上述第一传感器的检测结果与上述第二传感器的检测结果之差;
第二计算部(20A),其计算上述第三传感器的检测结果与上述第四传感器的检测结果之差;以及
可靠度决定部(20A),其基于上述第一计算部以及上述第二计算部的计算结果来决定上述第一物体判定部以及上述第二物体判定部的判定结果的可靠度。
根据该构成,能够进行高可靠度的物体识别。
[构成2]
根据构成1所述的物体识别装置,其特征在于,在上述第一物体判定部以及上述第二物体判定部的至少一方的判定结果的上述可靠度满足规定条件的情况下,上述物体识别部不基于上述可靠度低的一方的物体判定部的判定结果而是基于上述可靠度高的一方的物体判定部的判定结果来识别上述物体。
根据该构成,能够基于可靠度高的物体判定部来进行物体识别。
[构成3]
根据构成1或2所述的物体识别装置,其特征在于,上述第一传感器与上述第三传感器具有彼此相等的检测特性。
根据该构成,能够以检测特性相等的传感器作为基准来进行可靠度的比较。
[构成4]
根据构成1至3中任一项所述的物体识别装置,其特征在于,在上述第一传感器或上述第二传感器的检测结果与上述第三传感器或上述第四传感器的检测结果之间存在规定的偏差的情况下,由上述可靠度决定部来决定上述可靠度。
根据该构成,在认为可靠度低的情况下能够进行可靠度的决定。
[构成5]
根据构成1至4中任一项所述的物体识别装置,其特征在于,
上述第一传感器以及上述第三传感器分别是摄像机(31A、31B),
上述第二传感器是光学雷达(32A),
上述第四传感器是雷达(32B)。
根据该构成,能够基于特性互不相同的传感器间的检测结果之差来决定可靠度。
[构成6]
一种车辆(V),具备构成1至5中任一项所述的物体识别装置(1)、上述第一传感器、上述第二传感器、上述第三传感器及上述第四传感器以及致动器组(83)。
根据该构成,提供能够进行高可靠度的物体识别的车辆。
[构成7]
一种用于识别物体(601)的方法,其特征在于,包括:
第一物体判定步骤(S501),在该步骤中,至少基于第一传感器(31A)以及第二传感器(32A)对上述物体进行检测而得到的检测结果来判定上述物体;
第二物体判定步骤(S502),在该步骤中,至少基于第三传感器(31B)以及第四传感器(32B)对上述物体进行检测而得到的检测结果来判定上述物体;
物体识别步骤(S508、S509),在该步骤中,基于上述第一物体判定步骤以及上述第二物体判定步骤的至少一方的判定结果来识别上述物体;
第一计算步骤(S503),在该步骤中,计算上述第一传感器的检测结果与上述第二传感器的检测结果之差;
第二计算步骤(S504),在该步骤中,计算上述第三传感器的检测结果与上述第四传感器的检测结果之差;以及
可靠度决定步骤(S506),在该步骤中,基于上述第一计算步骤以及上述第二计算步骤的计算结果来决定上述第一物体判定步骤以及上述第二物体判定步骤的判定结果的可靠度。
根据该构成,能够进行高可靠度的物体识别。
本发明不限于上述实施方式,在不脱离本发明的精神以及范围的前提下,能够进行各种变更以及变形。因此,为了公开本发明的范围,附加以下权利要求。

Claims (8)

1.一种物体识别装置,用于识别物体,其特征在于,具备:
第一物体判定部,其至少基于第一传感器以及第二传感器对所述物体进行检测而得到的检测结果来判定所述物体;
第二物体判定部,其至少基于第三传感器以及第四传感器对所述物体进行检测而得到的检测结果来判定所述物体;
物体识别部,其基于所述第一物体判定部以及所述第二物体判定部的至少一方的判定结果来识别所述物体;
第一计算部,其计算所述第一传感器的检测结果与所述第二传感器的检测结果之差;
第二计算部,其计算所述第三传感器的检测结果与所述第四传感器的检测结果之差;以及
可靠度决定部,其基于所述第一计算部以及所述第二计算部的计算结果来决定所述第一物体判定部的判定结果的第一可靠度和所述第二物体判定部的判定结果的第二可靠度。
2.根据权利要求1所述的物体识别装置,其特征在于,
在所述第一可靠度和所述第二可靠度中的至少任一方满足规定条件的情况下,所述物体识别部不基于给予所述第一可靠度和所述第二可靠度中较低的一方的判定结果而是基于给予所述第一可靠度和所述第二可靠度中较高的一方的判定结果来识别所述物体。
3.根据权利要求1所述的物体识别装置,其特征在于,
所述第一传感器与所述第三传感器具有彼此相等的检测特性。
4.根据权利要求1所述的物体识别装置,其特征在于,
在所述第一传感器或所述第二传感器的检测结果与所述第三传感器或所述第四传感器的检测结果之间存在规定的偏差的情况下,由所述可靠度决定部来决定所述第一可靠度以及所述第二可靠度。
5.根据权利要求1所述的物体识别装置,其特征在于,
所述第一传感器以及所述第三传感器分别是摄像机,
所述第二传感器是光学雷达,
所述第四传感器是雷达。
6.根据权利要求1所述的物体识别装置,其特征在于,
所述第一传感器、所述第二传感器、所述第三传感器以及所述第四传感器是单独的传感器。
7.一种车辆,具备权利要求1至6中任一项所述的物体识别装置、所述第一传感器、所述第二传感器、所述第三传感器及所述第四传感器以及致动器组。
8.一种用于识别物体的方法,其特征在于,包括:
第一物体判定步骤,在该步骤中,至少基于第一传感器以及第二传感器对所述物体进行检测而得到的检测结果来判定所述物体;
第二物体判定步骤,在该步骤中,至少基于第三传感器以及第四传感器对所述物体进行检测而得到的检测结果来判定所述物体;
物体识别步骤,在该步骤中,基于所述第一物体判定步骤以及所述第二物体判定步骤的至少一方的判定结果来识别所述物体;
第一计算步骤,在该步骤中,计算所述第一传感器的检测结果与所述第二传感器的检测结果之差;
第二计算步骤,在该步骤中,计算所述第三传感器的检测结果与所述第四传感器的检测结果之差;以及
可靠度决定步骤,在该步骤中,基于所述第一计算步骤以及所述第二计算步骤的计算结果来决定所述第一物体判定步骤的判定结果的第一可靠度和所述第二物体判定步骤的判定结果的第二可靠度。
CN201811310772.XA 2017-12-13 2018-11-06 物体识别装置、物体识别方法以及车辆 Active CN110007301B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017238857A JP6664371B2 (ja) 2017-12-13 2017-12-13 物体認識装置、物体認識方法及び車両
JP2017-238857 2017-12-13

Publications (2)

Publication Number Publication Date
CN110007301A CN110007301A (zh) 2019-07-12
CN110007301B true CN110007301B (zh) 2023-02-28

Family

ID=66735095

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811310772.XA Active CN110007301B (zh) 2017-12-13 2018-11-06 物体识别装置、物体识别方法以及车辆

Country Status (3)

Country Link
US (1) US11364921B2 (zh)
JP (1) JP6664371B2 (zh)
CN (1) CN110007301B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7082545B2 (ja) * 2018-08-01 2022-06-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法、情報処理装置およびプログラム
JP7221669B2 (ja) * 2018-12-04 2023-02-14 株式会社デンソー 駐車支援装置
DE112020007763T5 (de) 2020-11-10 2023-08-31 Mitsubishi Electric Corporation Sensorrauschenentfernungsvorrichtung und Sensorrauschenentfernungsverfahren

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104590258A (zh) * 2013-10-31 2015-05-06 富士重工业株式会社 车辆控制***
CN104925001A (zh) * 2014-03-18 2015-09-23 沃尔沃汽车公司 车辆传感器诊断***和方法以及包括这种***的车辆
CN106114513A (zh) * 2015-05-08 2016-11-16 丰田自动车株式会社 误识别判定装置
CN106708040A (zh) * 2016-12-09 2017-05-24 重庆长安汽车股份有限公司 自动驾驶***的传感器模块、自动驾驶***及方法
CN107076565A (zh) * 2014-10-22 2017-08-18 日产自动车株式会社 行驶路径运算装置
CN107121148A (zh) * 2016-02-24 2017-09-01 松下知识产权经营株式会社 判定装置、判定方法、程序和记录了程序的记录介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0588815B1 (fr) * 1991-03-22 2000-06-07 THOMSON multimedia Procede et dispositif d'analyse de sequences d'images routieres pour la detection d'obstacles
JP4792289B2 (ja) 2005-12-27 2011-10-12 トヨタ自動車株式会社 車輌の走行制御装置
JP4819166B2 (ja) * 2010-01-25 2011-11-24 富士通テン株式会社 情報処理装置、情報入手装置、情報統合装置、制御装置および物体検出装置
JP6046190B2 (ja) * 2015-03-31 2016-12-14 本田技研工業株式会社 運転支援装置
US10545229B2 (en) * 2016-04-22 2020-01-28 Huawei Technologies Co., Ltd. Systems and methods for unified mapping of an environment
JP6795909B2 (ja) * 2016-05-13 2020-12-02 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
JP6650851B2 (ja) * 2016-09-12 2020-02-19 本田技研工業株式会社 表示装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104590258A (zh) * 2013-10-31 2015-05-06 富士重工业株式会社 车辆控制***
CN104925001A (zh) * 2014-03-18 2015-09-23 沃尔沃汽车公司 车辆传感器诊断***和方法以及包括这种***的车辆
CN107076565A (zh) * 2014-10-22 2017-08-18 日产自动车株式会社 行驶路径运算装置
CN106114513A (zh) * 2015-05-08 2016-11-16 丰田自动车株式会社 误识别判定装置
CN107121148A (zh) * 2016-02-24 2017-09-01 松下知识产权经营株式会社 判定装置、判定方法、程序和记录了程序的记录介质
CN106708040A (zh) * 2016-12-09 2017-05-24 重庆长安汽车股份有限公司 自动驾驶***的传感器模块、自动驾驶***及方法

Also Published As

Publication number Publication date
JP2019105568A (ja) 2019-06-27
JP6664371B2 (ja) 2020-03-13
US20190176839A1 (en) 2019-06-13
US11364921B2 (en) 2022-06-21
CN110007301A (zh) 2019-07-12

Similar Documents

Publication Publication Date Title
CN109515430B (zh) 行驶控制***以及车辆的控制方法
JP7203898B2 (ja) 車両用制御システムおよび制御方法
CN110203199B (zh) 行驶控制装置以及行驶控制方法
EP3626569B1 (en) Driving assistance device and driving assistance method
JP7145257B2 (ja) 車両用制御システムおよび制御方法
CN111201554B (zh) 行驶模型生成***、行驶模型生成***中的车辆、处理方法以及存储介质
CN111758125B (zh) 行驶控制装置、行驶控制方法以及程序
CN113291317B (zh) 车辆控制装置以及车辆控制方法
CN111480188B (zh) 车辆及其控制***以及控制方法
CN111032472A (zh) 车辆及其控制装置以及控制方法
CN113183955B (zh) 车辆控制装置、车辆、车辆控制方法以及存储介质
CN110007301B (zh) 物体识别装置、物体识别方法以及车辆
CN109501798B (zh) 行驶控制装置、以及行驶控制方法
CN110893881A (zh) 车辆用控制***及车辆的控制方法
CN112829743B (zh) 驾驶辅助装置
CN113264061B (zh) 车辆控制装置、车辆、车辆控制方法以及存储介质
CN111301418A (zh) 驾驶辅助装置及其控制方法、车辆以及存储介质
CN113492843B (zh) 车载装置、车辆以及控制方法
US20230245470A1 (en) Driving assistance apparatus, vehicle, driving assistance method, and storage medium
US20210312814A1 (en) Vehicle, device, and method
CN115461261A (zh) 车辆控制***及车辆控制方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant