CN114730526A - 物体识别装置、物体识别方法及物体识别程序 - Google Patents

物体识别装置、物体识别方法及物体识别程序 Download PDF

Info

Publication number
CN114730526A
CN114730526A CN201980101802.2A CN201980101802A CN114730526A CN 114730526 A CN114730526 A CN 114730526A CN 201980101802 A CN201980101802 A CN 201980101802A CN 114730526 A CN114730526 A CN 114730526A
Authority
CN
China
Prior art keywords
stationary object
vehicle
detection points
detection
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201980101802.2A
Other languages
English (en)
Inventor
关口亮太
饭田公司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of CN114730526A publication Critical patent/CN114730526A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/52Discriminating between fixed and moving objects or between objects moving at different speeds
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/50Systems of measurement, based on relative movement of the target
    • G01S15/52Discriminating between fixed and moving objects or between objects moving at different speeds
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/523Details of pulse systems
    • G01S7/526Receivers
    • G01S7/53Means for transforming coordinates or for evaluating data, e.g. using computers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9314Parking operations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Acoustics & Sound (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)

Abstract

提取部(101)将在多个检测定时由外部检测传感器(501)检测到的车辆(200)周边的多个检测点中的静止物的检测点提取作为静止物检测点。分组化部(105)将在多个检测定时由提取部(101)提取出的多个静止物检测点中、推测为同一静止物的检测点的2个以上的静止物检测点进行分组化。

Description

物体识别装置、物体识别方法及物体识别程序
技术领域
本发明涉及识别车辆周边的环境的技术。
背景技术
专利文献1中,驾驶员将车辆从任意地点移动到停车位置时障碍物检测装置检测到的障碍物的位置的信息被存储在非易失性存储器中。专利文献1中,当下次使车辆停在相同的停车位置时,进行使用了非易失性存储器中所存储的障碍物的位置的信息的停车辅助。
现有技术文献
专利文献
专利文献1:日本专利特开2008-207732号公报
发明内容
发明所要解决的技术问题
专利文献1的技术中,作为障碍物检测装置,在使用空间上较疏的传感器的情况下,实际上无法行驶的区域也会被误识别为能行驶的区域。即,专利文献1的技术中,存在无法准确地识别车辆周边的环境的问题。
本发明的主要目的在于解决上述问题。更具体而言,本发明的主要目的在于,即使在使用了空间上较疏的传感器的情况下,也能准确地识别车辆周边的环境。
用于解决技术问题的技术手段
本发明所涉及的物体识别装置具有:
提取部,该提取部提取在多个检测定时由传感器检测出的车辆周边的多个检测点中的静止物的检测点,以作为静止物检测点;以及
分组化部,该分组化部将在多个所述检测定时由所述提取部提取出的多个静止物检测点中、推测为同一静止物的检测点的2个以上的静止物检测点进行分组化。
发明效果
根据本发明,即使在使用了空间上较疏的传感器的情况下,也能准确地识别车辆周边的环境。
附图说明
图1是示出实施方式1所涉及的物体识别装置的动作的概要的图。
图2是示出实施方式1所涉及的物体识别装置的功能结构例的图。
图3是示出实施方式1所涉及的物体识别装置的动作例的流程图。
图4是示出实施方式1所涉及的车辆的位置/姿态的更新处理的详细的流程图。
图5是示出实施方式1所涉及的静止物检测点信息的删除处理的详细的流程图。
图6是示出实施方式1所涉及的检测点信息的静止物判定处理的详细的流程图。
图7是示出实施方式1所涉及的静止物检测点信息的坐标转换处理的详细的流程图。
图8是示出实施方式1所涉及的静止物检测点信息的存储处理的详细的流程图。
图9是示出实施方式1所涉及的分组化处理的详细的流程图。
图10是示出实施方式1所涉及的分组删除处理的详细的流程图。
图11是对实施方式1所涉及的效果进行说明的图。
图12是对实施方式1所涉及的效果进行说明的图。
图13是对实施方式1所涉及的效果进行说明的图。
图14是示出实施方式2所涉及的物体识别装置的动作的概要的图。
图15是示出实施方式2所涉及的物体识别装置的动作的概要的图。
图16是示出实施方式2所涉及的物体识别装置的动作例的流程图。
图17是示出实施方式2所涉及的分组的连结处理的详细的流程图。
图18是示出实施方式2所涉及的与分组i相连结的分组的数量为0个的情况下的连结例的图。
图19是示出实施方式2所涉及的与分组i相连结的分组的数量为M-1个的情况下的连结例的图。
图20是示出实施方式2所涉及的与分组i相连结的分组的数量为M1个的情况下的连结例的图。
图21是对实施方式2所涉及的效果进行说明的图。
图22是对实施方式2所涉及的效果进行说明的图。
图23是示出实施方式1所涉及的物体识别装置的硬件结构例的图。
具体实施方式
以下,使用附图对本发明的实施方式进行说明。在以下实施方式的说明和附图中,标有相同标号的部分表示相同的部分或相当的部分。
实施方式1.
***概要***
首先,参照图1,对本实施方式所涉及的物体识别装置的动作的概要进行说明。
图1是示出车辆200以速度V行驶在道路上的状态的映射数据。图1中,为了使附图简明而没有绘制出道路,但如图11所示,车辆200行驶在道路600上。图11中,车辆200在两侧被护栏610隔开的道路600上行驶。图11中,道路600是车辆200能行驶的区域,是可行驶区域。护栏610的外侧是车辆200无法行驶的区域,是不可行驶区域。
车辆200搭载有后述的物体识别装置和外部检测传感器。
外部检测传感器在每个重复到来的检测定时,搜索位于车辆200的周边的物体(包含静止物、移动物)。检测定时以毫秒、微秒这样的较短周期到来。外部检测传感器例如是毫米波雷达、摄像头、声呐等。外部检测传感器检测车辆200的周边所存在的物体,以作为多个检测点300。
另外,图1中,省略了与图11所示的右侧的护栏610对应的检测点300的图示。
图1(a)示出t=tn的检测结果。即,图1(a)示出如下示例:将在作为检测定时的时刻tn由外部检测传感器检测出的多个检测点300配置在映射数据上。由于外部检测传感器在空间上较疏,因此,在时刻tn车辆200的周围所存在的物体作为点被识别。
本实施方式所涉及的物体识别装置将多个检测点300中静止物上的检测点作为静止物检测点(以下,记为静止物检测点350)来提取。本实施方式所涉及的物体识别装置中,对提取出的静止物检测点350的位置进行累计。
图1(b)示出t=tn-m~tn的检测结果的累计状况。即,图1(b)示出如下示例:将在时刻tn-m至时刻tn的多个检测定时由外部检测传感器检测出的静止物检测点350配置在映射数据上。
物体识别装置对在时刻tn-m至时刻tn由外部检测传感器检测出的静止物检测点350进行累计。
由此,本实施方式中,通过对多个检测定时的多个静止物检测点350进行映射,从而静止物作为点组被识别。
图1(c)示出分组化后的静止物检测点350的示例。
物体识别装置将所累计的静止物检测点350中作为同一静止物的检测点被推测的静止物检测点350进行分组化。图1(c)中,框线内的静止物检测点350作为1个组400来处理。
分组化例如使用空间密度来进行。空间密度为阈值以下的组被判定为误检测。将判定为误检测的组从映射数据上删除。
图1(c)的示例中,在车辆200的周边存在3个组400。各个组400表示车辆200的周边所存在的静止物。
由此,本实施方式中,即使在使用空间上较疏的传感器的情况下,也能使用多个检测点300。因此,根据本实施方式,能准确地识别车辆200周边的静止物的位置,能准确地识别车辆200的周边的环境。
***结构的说明***
图2示出本实施方式所涉及的物体识别装置100的功能结构以及连接到物体识别装置100的设备。
车辆200搭载有物体识别装置100、外部检测传感器501、车辆运动检测传感器502和车辆位置/姿态传感器503。
图2中,仅示出与本实施方式的说明直接相关的要素。例如,车辆200包含发动机、刹车、轮胎等各种要素,但它们与本实施方式的说明没有直接关系,因此省略图示。
物体识别装置100是搭载于车辆200的计算机。物体识别装置100包含提取部101、车辆位置/姿态推定部102、信息更新部103、累计部104和分组化部105。提取部101、车辆位置/姿态推定部102、信息更新部103、累计部104和分组化部105的详细内容在后文中阐述。
另外,物体识别装置100的动作步骤相当于物体识别方法。此外,实现物体识别装置100的动作的程序相当于物体识别程序。
物体识别装置100连接到外部检测传感器501、车辆运动检测传感器502和车辆位置/姿态传感器503。
外部检测传感器501检测车辆200的外部的物体、即车辆200的周边的物体。如上所述,外部检测传感器501是毫米波雷达、摄像头、声呐等。外部检测传感器501检测车辆200的周边所存在的物体,以作为多个检测点300。
此外,外部检测传感器501将表示检测点300的位置和速度的检测点信息111输出到物体识别装置100。
车辆运动检测传感器502获取车辆200的速度和偏航率。然后,车辆运动检测传感器502将表示获取到的速度和偏航率的车辆运动信息112输出到物体识别装置100。
车辆位置/姿态传感器503获取车辆200的位置和姿态(方位)。然后,车辆位置/姿态传感器503将表示获取到的位置和姿态(方位)的车辆位置/姿态信息113输出到物体识别装置100。车辆位置/姿态传感器503例如是GNSS(Global Navigation Satellite System:全球导航卫星***)或地磁传感器。
图23示出本实施方式所涉及的物体识别装置100的硬件结构例。
作为硬件,物体识别装置100包括处理器901、主存储装置902、辅助存储装置903和通信装置904。
辅助存储装置903中存储有程序,该程序实现图1所示的提取部101、车辆位置/姿态推定部102、信息更新部103和分组化部105的功能。
这些程序从辅助存储装置903加载到主存储装置902。然后,处理器901执行这些程序,并进行后述的提取部101、车辆位置/姿态推定部102、信息更新部103和分组化部105的动作。
图23中,示意性地表示处理器901执行程序的状态,该程序实现提取部101、车辆位置/姿态推定部102、信息更新部103和分组化部105的功能。
图2所示的累计部104由主存储装置902或辅助存储装置903来实现。
通信装置904从外部检测传感器501接收检测点信息111。此外,通信装置904从车辆运动检测传感器502接收车辆运动信息112。此外,通信装置904从车辆位置/姿态传感器503接收车辆位置/姿态信息113。
接着,对图2所示的提取部101、车辆位置/姿态推定部102、信息更新部103、累计部104和分组化部105进行说明。
提取部101将在多个检测定时由外部检测传感器501检测到的车辆200周边的多个点即多个检测点300中的静止物的检测点300作为静止物检测点350来提取。另外,车辆200的周边是指外部检测传感器501的可扫描范围内。
即,提取部101在每个检测定时经由通信装置904从外部检测传感器501获取检测点信息111。提取部101在每个检测点300获取检测点信息111。检测点信息111中示出检测点300的位置坐标、检测点300的速度、外部检测传感器501的检测时刻。检测点信息111所示的检测点300的位置坐标是以车辆200的位置为原点的坐标系中的位置坐标。
此外,提取部101经由通信装置904从车辆运动检测传感器502获取车辆运动信息112。
提取部101在每个检测定时,从检测点信息111所示的多个检测点300中提取静止物的检测点300,以作为静止物检测点350。更具体而言,提取部101使用车辆运动信息112来求出各检测点300的对地速度,并基于各检测点300的对地速度来提取静止物检测点350。
然后,提取部101生成表示所提取出的静止物检测点350的位置坐标和检测时刻的静止物检测点信息114。提取部101对每个静止物检测点350生成静止物检测点信息114。静止物检测点信息114所示的静止物检测点350的位置坐标是以车辆200的位置为原点的坐标系中的位置坐标。然后,提取部101将所生成的静止物检测点信息114输出到信息更新部103。
由提取部101进行的处理相当于提取处理。
车辆位置/姿态推定部102在每个重复到来的推定定时,经由通信装置904获取车辆运动信息112和车辆位置/姿态信息113中的任一个或双方。然后,车辆位置/姿态推定部102使用车辆运动信息112和车辆位置/姿态信息113中的任一个或双方,来推定以映射上的某个地点的某个方向为原点的坐标系(之后称为映射坐标系)中的当前时刻的车辆200的位置和姿态。
然后,车辆位置/姿态推定部102将推定结果作为位置/姿态信息115存储在累计部104中。位置/姿态信息115中示出位置和姿态的推定时刻(当前时刻)以及推定出的车辆200的位置和姿态。
另外,推定定时可以与检测定时不一致。
信息更新部103从提取部101获取静止物检测点信息114,此外,从累计部104获取位置/姿态信息115。然后,信息更新部103使用静止物检测点信息114和位置/姿态信息115将静止物检测点305的位置转换为映射坐标系的位置。信息更新部103将示出映射坐标系中的静止物检测点350的位置的静止物检测点信息116存储在累计部104中。
此外,信息更新部103指示累计部104将符合规定条件的静止物检测点信息116和位置/姿态信息115删除。
累计部104累计多个推定定时获取到的位置/姿态信息115。
此外,累计部104累计多个检测定时获取到的静止物检测点信息116。
此外,累计部104按照信息更新部103的指示,将符合规定的条件的静止物检测点信息116和位置/姿态信息115删除。
由累计部104进行的处理相当于累计处理。
分组化部105将多个静止物检测点350中、被推测为同一静止物的检测点的2个以上的静止物检测点350进行分组化。例如,如参照图1(c)所说明的那样,分组化部105使用空间密度来进行静止物检测点350的分组化。
此外,分组化部105在进行了分组化后,对于每个分组,计算分组中所包含的2个以上的静止物检测点中的空间密度。然后,分组化部105将计算出的空间密度在空间密度阈值以下的分组放弃。分组化部105可以根据分组与车辆200之间的距离使空间密度阈值发生变化。
分组化部105能将表示分组化的结果的分组信息117显示在例如未图示的车辆200内的显示装置上。
由分组化部105进行的处理相当于分组化处理。
***动作的说明***
接着,对本实施方式所涉及的物体识别装置100的动作例进行说明。
图3示出本实施方式所涉及的物体识别装置100的动作例。
[步骤S1:车辆200的位置/姿态的更新处理]
步骤S1中,车辆位置/姿态推定部102更新映射坐标系中的车辆200的位置/姿态。
图4示出步骤S1的详细。以下对图4进行说明。
步骤S1-1中,车辆位置/姿态推定部102判别车辆200的位置/姿态的计算方法。车辆位置/姿态推定部102根据车辆运动检测传感器502和车辆位置/姿态传感器503的检测精度来判别计算方法。例如,在从车辆运动检测传感器502或车辆位置/姿态传感器503接收到故障的通知的情况下,车辆位置/姿态推定部102决定不使用故障通知的发送源的传感器。此外,在因行驶环境的影响导致车辆运动检测传感器502或车辆位置/姿态传感器503的检测精度显著下降了的情况下,车辆位置/姿态推定部102决定不使用检测精度显著下降了的传感器。
即,在车辆运动检测传感器502和车辆位置/姿态传感器503的检测精度良好的情况下,处理转移至步骤S1-4。
另一方面,在车辆200行驶在隧道内时那样车辆位置/姿态传感器503的检测精度下降的情况下,处理转移至步骤S1-3。
此外,在车辆运动检测传感器502的检测精度下降了的情况下,处理转移至步骤S1-2。
步骤S1-2中,车辆位置/姿态推定部102仅使用车辆位置/姿态503的车辆位置/姿态信息113来推定车辆200的位置/姿态。
首先,车辆位置/姿态推定部102计算映射坐标系中的原点的纬度和经度、与来自车辆位置/姿态传感器503的车辆位置/姿态信息113所示的最新的纬度和经度之间的差。接着,车辆位置/姿态推定部102使用计算出的差的值,将车辆位置/姿态信息113所示的最新的纬度和经度转换为平面直角坐标系的值。然后,车辆位置/姿态推定部102利用地磁传感器获取车辆200的方位,并结束步骤S1-2的处理。
步骤S1-3中,车辆位置/姿态推定部102仅使用来自车辆运动检测传感器502的车辆运动信息112来推定车辆200的位置/姿态。
首先,车辆位置/姿态推定部102计算从上一次的更新时刻tn-1到本次的更新时刻tn为止的时间差Δt。接着,车辆位置/姿态推定部102假设为在时刻tn-1到时刻tn之间车辆200以速度V、偏航率ω进行匀速圆周运动,并计算时间差Δt之间的车辆200的位置与方位的变化量(Δx,Δy,Δyaw)。然后,车辆位置/姿态推定部102将上述变化量(Δx,Δy,Δyaw)与时刻tn-1的车辆200的位置和方位(x,y,yaw)的值相加。以上,车辆位置/姿态推定部102结束步骤S1-3的处理。
步骤S1-4中,车辆位置/姿态推定部102使用来自车辆运动检测传感器502的车辆运动信息112和来自车辆位置/姿态传感器503的车辆位置/姿态信息113来推定车辆200的位置/姿态。
这里,车辆位置/姿态推定部102使用车辆运动信息112的值和车辆位置/姿态信息113的值来确立模型公式。然后,车辆位置/姿态推定部102利用公知的技术即扩展卡尔曼滤波器等,来更新车辆200的位置和姿态的值。以上,车辆位置/姿态推定部102结束步骤S1-4的处理。
最后,步骤S1-5中,车辆位置/姿态推定部102将由步骤S1-2、步骤S1-3和步骤S1-4中的任一个推定出的车辆200的位置/姿态所示的位置/姿态信息115存储在累计部104中。以上,车辆位置/姿态推定部102结束步骤S1的处理。
[步骤S2:静止物检测点信息的删除处理]
步骤S2中,信息更新部103将累计部104中所保存的过去的静止物检测点信息116删除。
图5示出步骤S2的详细。以下对图5进行说明。
信息更新部103对于累计部104中所保存的每个静止物检测点信息116进行以下处理。
步骤S2-1中,信息更新部103获取N个静止物检测点信息116中的第i个静止物检测点信息obsi(i=1、2、……、N)。
步骤S2-2中,信息更新部103计算从提取部101生成步骤S2-1中获取到的静止物检测点信息obsi的时刻tobs起到进行本处理的时刻tcrnt(称为当前时刻)为止的经过时间dt=tcrnt-tobs。然后,信息更新部103判定经过时间dt是否在阈值以上。经过时间dt在阈值以上的情况下,处理前进至步骤S2-4。经过时间dt小于阈值的情况下,处理前进至S2-3。
步骤S2-3中,信息更新部103利用以下的(式1)来计算映射坐标系中的静止物检测点350的位置(xi,yi)与车辆200的位置(xego,yego)之间的距离di
然后,信息更新部103判定计算出的距离di是否在阈值以上。
距离di在阈值以上的情况下,处理前进至步骤S2-4。经过时间dt小于阈值的情况下,如果存在未处理的静止物检测点信息116,则处理前进至S2-1。如果对所有的静止物检测点信息116完成处理,则步骤S2结束。
[数学式1]
Figure BDA0003618867630000121
步骤S2-4中,静止物检测点信息obsi满足删除条件,因此,信息更新部103将静止物检测点信息obsi从累计部104中删除。
由此,在步骤S2-2、步骤S2-3和步骤S2-4中,信息更新部103将由外部检测传感器501检测出后的经过时间在阈值以上、且相距车辆200的距离在阈值以上的静止物检测点350删除。因此,在后述的步骤S6中,由外部检测传感器501检测出后的经过时间在阈值以上、且相距车辆200的距离在阈值以上的静止物检测点350不成为分组化的对象。
步骤S2-4结束后,如果存在未处理的静止物检测点信息116,则处理前进至S2-1。如果对所有的静止物检测点信息116完成处理,则步骤S2结束。
[步骤S3:检测点信息的静止物判定处理]
步骤S3中,提取部101判定来自外部检测传感器501的检测点信息111所示的检测点det_obsi(i=1、2、……、N_DET_NUM)是否是静止物的检测点。
图6示出步骤S3的详细。以下对图6进行说明。
步骤S3-1中,提取部101获取检测点det_obsi的速度中车辆200的行进方向的分量的速度Vx。提取部101根据车辆运动信息112来判定车辆200的行进方向。
步骤S3-2中,提取部101通过Vground=Vx-Vego来计算检测点det_obsi的对地速度Vground(相对于地面的速度)。Vego是车辆运动信息112所示的车辆200的速度。
步骤S3-3中,提取部101判定对地速度Vground的绝对值是否在阈值以下。对地速度Vground的绝对值在阈值以下的情况下,处理前进至步骤S3-4。另一方面,对地速度Vground的绝对值超过阈值的情况下,处理前进至步骤S3-5。
步骤S3-4中,提取部101将检测点det_obsi判定为静止物检测点350。静止物检测点350指静止物上的检测点。
步骤S3-5中,将检测点det_obsi判定为移动物检测点。移动物检测点指移动物上的检测点。
步骤S3-6中,提取部101生成静止物检测点信息114。更具体而言,提取部101从检测点信息111获取静止物检测点350的信息,并生成静止物检测点信息114。静止物检测点信息114中示出静止物检测点350的位置坐标、外部检测传感器501的检测时刻。
然后,提取部101将所生成的静止物检测点信息114输出到信息更新部103。
步骤S3-6之后,步骤S3结束。
[步骤S4:静止物检测点信息的坐标转换处理]
步骤S4中,信息更新部103将静止物检测点350的位置坐标转换为映射坐标系。
图7示出步骤S4的详细。以下对图7进行说明。
如上所述,静止物检测点信息114所示的静止物检测点的位置坐标是以静止物检测点350的检测时的车辆200的位置为原点的位置(xr,yr)。信息更新部103将位置(xr,yr)转换为映射坐标系的位置(xm,ym)。
步骤S4-1中,信息更新部103获取累计部104中所保存的位置/姿态信息115中最接近静止物检测点信息114所示的检测时刻t的2个时间点tn、tn+1的位置/姿态信息115。以下,将时间点tn的位置/姿态信息115中所包含的位置和姿态记为(xego_n,yego_n,yawego_n)。此外,将时间点tn+1的位置/姿态信息115中所包含的位置和姿态记为(xego_n+1,yego_n+1,yawego_n+1)。
步骤S4-2中,信息更新部103基于步骤S4-1中获取到的位置/姿态信息115,来推定检测时刻t的车辆200的位置和姿态(xego_t,yego_t,yawego_t)。
具体而言,信息更新部103利用以下的(式2),来推定检测时刻t的车辆200的位置和姿态(xego_t,yego_t,yawego_t)。
[数学式2]
Figure BDA0003618867630000141
步骤S4-3中,信息更新部103使用步骤S4-2中所得到的车辆200的位置/姿态的推定结果,将静止物检测点信息114所示的静止物检测点350的位置坐标转换为映射坐标系中的值。具体而言,信息更新部103按照以下的(式3)来对值进行转换。
其中,(xobs_rel,yobs_rel)是静止物检测点信息114所示的静止物检测点350的位置坐标,(xobs_map,yobs_map)是映射坐标系中的静止物检测点350的位置坐标。
步骤S4-3之后,步骤S4结束。
另外,将进行静止物检测点信息114的坐标转换而得的信息称为静止物检测点信息116。
[数学式3]
Figure BDA0003618867630000151
[步骤S5:静止物检测点信息的存储处理]
步骤S5中,信息更新部103将静止物检测点信息116存储在累计部104中。
图8示出步骤S5的详细。以下对图8进行说明。
步骤S5-1中,信息更新部103将静止物检测点信息116存储在累计部104中。
[步骤S6:分组化处理]
步骤S6中,分组化部105将静止物检测点350进行分组化。
图9示出步骤S6的详细。以下对图9进行说明。
步骤S6—1中,分组化部105将多个静止物检测点350中、被推测为同一静止物的检测点的2个以上的静止物检测点350进行分组化。具体而言,分组化部105使用密度基准型聚类技术,将静止物检测点350进行分组化。作为密度基准型聚类技术,分组化部105例如可以使用DBSCAN算法。
步骤S6-2中,分组化部105将示出步骤S6-1中所得到的分组400的详细内容的分组信息117登记在累计部104中。分组信息117中包含分组400的标识、分组400的框线的位置坐标、分组400中所包含的静止物检测点350的位置坐标。
此外,分组化部105可以将分组信息117输出到外部。例如,分组化部105可以将分组信息117输出到车辆200所搭载的显示装置。
“步骤S7:分组的删除处理”
步骤S7中,分组化部105将步骤S6中得到的分组中的一部分分组删除。
图10示出步骤S7的详细。以下对图10进行说明。
步骤S7-1中,分组化部105获取N_OBS_GROUP个分组400中的第i个(i=1、2、……、N_OBS_GROUP)分组400。以下,将第i个分组称为分组i。
步骤S7-2中,分组化部105计算与分组i的位置相对应的空间密度阈值thresh。
具体而言,在将分组i的位置设为(x,y)时,分组化部105通过阈值thresh=f(x,y)来计算。分组i的位置(x、y)例如是相当于分组i的区域的中心点的位置。
此外,阈值thresh=f(x,y)例如如以下的(式4)所示那样,是与相距车辆200的距离成正比的函数。
[数学式4]
Figure BDA0003618867630000161
(a,b:常数) (式4)
步骤S7-3中,分组化部105获取步骤S6的分组化处理时所得到的分组i的空间密度。然后,分组化部105判定获取到的空间密度是否在步骤S7-2中求出的空间密度阈值thresh以下。当获取到的空间密度在空间密度阈值thresh以下的情况下,处理前进至步骤S7-4。
在获取到的空间密度超过空间密度阈值thresh的情况下,如果存在未处理的分组400,则处理前进至步骤S7-1。另一方面,如果所有的分组400完成处理,则步骤S7结束。
步骤S7-4中,分组化部105将分组i判定为噪声,并删除分组i的分组信息117。
步骤S7-4之后,如果存在未处理的分组400,则处理前进至S7-1。另一方面,如果所有的分组400完成处理,则步骤S7结束。
***实施方式的效果的说明***
由此,根据本实施方式,即使在使用了空间上较疏的传感器的情况下,也能准确地识别车辆200的周边的静止物,并能准确地识别车辆200周边的环境。
以下对本实施方式所涉及的效果进行详细说明。
这里,以图11所示的周边环境为前提。
如上所述,图11中,车辆200在两侧被护栏610隔开的道路600上行驶。图11中,道路600是车辆200能行驶的区域,是可行驶区域。护栏610的外侧是车辆200无法行驶的区域,是不可行驶区域。
图12示出空间上较疏的传感器所得出的检测结果。图12中,仅检测点300被判定为车辆200的周边的障碍物,仅检测点300被识别为不可行驶区域。因此,实际上无法行驶的区域被误识别为可行驶区域。在使用专利文献1的技术的情况下,得到图12所示的识别结果。
图13示出由分组化部105进行静止物检测点350的分组化后的状态。图13中,静止物检测点350被分组化,存在多个分组400。图13中,沿着护栏610的形状识别出分组400。因此,能推测为在车辆200的两侧连续存在障碍物。由此,根据本实施方式,即使在使用了空间上较疏的传感器的情况下,也能准确地识别车辆200的周边的环境。
实施方式2.
***概要***
本实施方式中,说明将实施方式1所得到的多个分组400相连结的示例。
本实施方式中,主要说明与实施方式1的差异。
另外,以下未说明的事项与实施方式1相同。
图14示出分组的连结例。
图14示出在图1(c)的映射数据上将3个分组400相连结的状态。
车辆200、静止物检测点350和分组400与图1(c)所示的相同。
本实施方式中,在分组400间的距离在距离阈值以下的情况下,分组化部105用连结线450在分组400之间进行连结。例如,在相对于车辆200位于右侧的分组400中,分组化部105利用连结线450将各分组400的框线的左侧面进行连结。另一方面,在相对于车辆200位于左侧的分组400中,分组化部105利用连结线450将各组400的框线的右侧面进行连结。
此外,分组化部105能根据车辆200的行驶速度使距离阈值发生变化。具体而言,分组化部105使分组400间的距离阈值随着车辆200的行驶速度的增加而增加。
图15(a)示出车辆200的速度V在速度阈值Vthresh以下时的分组400间的连结状况。另一方面,图15(b)示出车辆200的速度V比速度阈值Vthresh要大时的分组400间的连结状况。当速度V在速度阈值Vthresh以下时,如图15(a)所示,将所有的分组400进行连结。另一方面,当车辆200的速度V比速度阈值Vthresh要大时,如图15(b)所示,即使分组400间的距离与图15(a)相同,也不将分组400-1与分组400-2之间进行连结。
***结构的说明***
本实施方式所涉及的物体识别装置100的功能结构和车辆200所搭载的传感器的结构如图2所示那样。
此外,本实施方式所涉及的物体识别装置100的硬件结构如图23所示那样。
***动作的说明***
图16示出本实施方式所涉及的物体识别装置100的动作例。
图16中,步骤S1~S7与图3中所示的相同。因此,省略图16的步骤S1~S7的说明。
[步骤S8:分组的连结处理]
步骤S8中,分组化部105判定车辆200是否能通过分组400之间,在判定为车辆200无法通过的情况下,将该分组400间连结起来。
图17示出步骤S16的详细。以下对图17进行说明。
步骤S8-1中,分组化部105根据车辆200的车速V,来计算分组间的连结判定的阈值thresh。例如,分组化部105利用阈值thresh=a*V+b来进行计算(a,b:常数)。由此,当车辆200的速度较大时,阈值thresh也变大。
步骤S8-2中,分组化部105选择上述步骤S6-1所生成的N个分组400中的第i个分组400(i=1、2、……、N)。以下,将第i个分组400称为分组i。
此外,步骤S8-3中,分组化部105选择N个分组400中的第j个分组400(j=1、2、……、N,j≠i)。以下,将第j个分组400称为分组j。
步骤S8-4中,利用以下的(式5)来计算所选择的分组i与分组j之间的距离dij。另外,“xi”表示分组i的x坐标,“yi”表示分组i的y坐标。同样地,“xj”表示分组j的x坐标,“yj”表示分组j的y坐标。例如,“xi”表示分组i的区域的中心点的x坐标,“yi”表示分组i的区域的中心点的y坐标。同样地,“xj”表示分组j的区域的中心点的x坐标,“yj”表示分组j的区域的中心点的y坐标。
[数学式5]
Figure BDA0003618867630000191
步骤S8-5中,分组化部105将分组i和分组j的距离dij与阈值thresh进行比较。
在距离dij比阈值thresh要大的情况下,如果存在未作为分组j被选择的分组400,则处理返回到步骤S8-3。在已经选择所有的分组400来作为分组j的情况下,如果存在未作为分组i被选择的分组400,则处理返回到步骤S8-2。在已经选择所有的分组400来作为分组i的情况下,处理前进至步骤S8-13。
另一方面,如果距离dij小于阈值thresh,则处理前进至步骤S8-6。
步骤S8-6中,分组化部105获取已经与分组j相连结的分组400的数量。此外,分组化部105计算连结到分组j的分组400的每一个与分组j的距离。
步骤S8-7中,分组化部105判定与分组j相连结的分组400的数量是否为M-1个以下。
这里,“M”表示一个分组400所能连结的最大个数(M=0、1、2、……、N-1)。
在与分组j相连结的分组400的数量为M-1个以下的情况下,处理前进至步骤S8-12。
另一方面,在与分组j相连结的分组的数量超过M-1个的情况下,处理前进至步骤S8-8。
步骤S8-8中,分组化部105判定与分组j相连结的分组400的数量是否为M个。在与分组j相连结的分组400的数量为M个的情况下,处理前进至步骤S8-9。
另一方面,在与分组j相连结的分组400的数量超过M个的情况下,如果存在未作为分组j被选择的分组400,则处理返回到步骤S8-3。在已经选择所有的分组400来作为分组j的情况下,如果存在未作为分组i被选择的分组400,则处理返回到步骤S8-2。在已经选择所有的分组400来作为分组i的情况下,处理前进至步骤S8-13。
步骤S8-9中,分组化部105获取已经连接到分组j的M个分组400中与分组j的距离最大的分组k、以及分组j与分组k的距离djk
步骤S8-10中,分组化部105将分组i和分组j的距离dij与分组j和分组k的距离djk进行比较。
距离dij在距离djk以下的情况下,处理前进至步骤S8-11。另一方面,在距离dij比距离djk要大的情况下,如果存在未作为分组j被选择的分组400,则处理返回到步骤S8-3。在已经选择所有的分组400来作为分组j的情况下,如果存在未作为分组i被选择的分组400,则处理返回到步骤S8-2。在已经选择所有的分组400来作为分组i的情况下,处理前进至步骤S8-13。
步骤S8-11中,分组化部105将分组j与分组k的连结删除。
步骤S8-12中,分组化部105将分组i与分组j进行连结。
在已经选择所有的分组400来作为分组i和分组j的情况下,在步骤S8-13中,分组化部105生成反映步骤S8-11和步骤S8-12的结果的分组连结信息。
然后,分组化部105将所生成的分组连结信息登记在累计部104中。此外,分组化部105可以将所生成的分组连结信息输出到外部。例如,分组化部105可以将分组连结信息输出到车辆200所搭载的显示装置。
图18和图19中,示出步骤S8-7的判定中为真(true)的情况下的分组化部105的动作例。
图18和图19中,作为条件,定义了“dij<thresh”。
步骤S8-5的判定中为真(true),因此该条件成立。因此,步骤S8-12中,分组化部105将分组i与分组j进行连结。
图20示出步骤S8-7的判定中为假(false)、步骤S8-8的处理中为真(true)的情况下的分组化部105的动作例。
图20中,作为条件,定义了“dij<thresh”和“dij<djk”。步骤S8-5的判定中为真(true),“dij<thresh”成立。如果在步骤S8-10的判定中“dij<djk”的条件成立,则分组化部105在步骤S8-11中删除分组j与分组k的连结,并在步骤S8-12中连结分组i与分组j。
此外,分组化部105可以基于分组400的连结结果来判别可行驶区域与不可行驶区域。
例如,如图21所示,在连结了分组400的情况下,分组化部105可以基于分组400与连结线450的连结状况,如图22所示那样来判别可行驶区域与不可行驶区域。即,分组化部105判定为分组400与连结线450的内侧的区域为可行驶区域。另一方面,分组化部105判定为分组400与连结线450的外侧的区域为不可行驶区域。
***实施方式的效果的说明***
由此,本实施方式中,将彼此间的距离在阈值以下的2个以上的组进行连结。然后,本实施方式中,能基于分组的连结状况来判别可行驶区域和不可行驶区域。因此,根据本实施方式,在车辆200是自动驾驶车辆的情况下,能顺畅地进行自动驾驶。即,根据本实施方式,能避免自动驾驶车辆进入不可行驶区域的情况,能使自动驾驶车辆行驶在可行驶区域内。
以上,对本发明的实施方式进行了说明,也可以组合这2个实施方式来实施。
或者,也可以部分实施这2个实施方式中的1个。
或者,也可以部分组合这2个实施方式来实施。
另外,本发明不限于这些实施方式,根据需要可进行各种变更。
***硬件结构的说明***
最后,对物体识别装置100的硬件结构进行补充说明。
图23所示的处理器901是进行处理的IC(Integrated Circuit:集成电路)。
处理器901是CPU(Central Processing Unit:中央处理单元)、DSP(DigitalSignal Processor:数字信号处理器)等。
图23所示的主存储装置902是RAM(Random Access Memory:随机存取存储器)。
图23所示的辅助存储装置903是ROM(Read Only Memory:只读存储器)、闪存、HDD(Hard Disk Drive:硬盘驱动器)等。
图23所示的通信装置904是执行数据的通信处理的电子电路。
通信装置904例如是通信芯片或NIC(Network Interface Card:网络接口卡)。
此外,辅助存储装置903中也存储有OS(Operating System:操作***)。
而且,OS的至少一部分由处理器901来执行。
处理器901执行OS的至少一部分,并执行实现提取部101、车辆位置/姿态推定部102、信息更新部103和分组化部105的功能的程序。
通过由处理器901执行OS,从而执行任务管理、存储器管理、文件管理、通信控制等。
此外,表示提取部101、车辆位置/姿态推定部102、信息更新部103和分组化部105的处理的结果的信息、数据、信号值和变量值中的至少任一个存储在主存储装置902、辅助存储装置903、处理器901内的寄存器和缓存存储器中的至少任一个中。
此外,实现提取部101、车辆位置/姿态推定部102、信息更新部103和分组化部105的功能的程序可以存储在磁盘、软盘、光盘、压缩光盘、蓝光(注册商标)盘、DVD等可移动存储介质中。然后,可以使存储有实现提取部101、车辆位置/姿态推定部102、信息更新部103和分组化部105的功能的程序的可移动存储介质流通。
此外,可以将提取部101、车辆位置/姿态推定部102、信息更新部103和分组化部105的“部”替换为“电路”、“工序”、“步骤”或“处理”。
此外,物体识别装置100可以由处理电路来实现。处理电路例如是逻辑IC(Integrated Circuit:集成电路)、GA(Gate Array:门阵列)、ASIC(Application SpecificIntegrated Circuit:专用集成电路)、FPGA(Field-Programmable Gate Array:现场可编程门阵列)。
该情况下,提取部101、车辆位置/姿态推定部102、信息更新部103和分组化部105分别作为处理电路的一部分来实现。
另外,本说明书中,将处理器和处理电路的上位概念称为“处理电路”。
即,处理器和处理电路分别是“处理电路”的具体示例。
标号说明
100 物体识别装置
101 提取部
102车辆位置/姿态推定部
103 信息更新部
104 累计部
105 分组化部
111 检测点信息
112 车辆运动信息
113 车辆位置/姿态信息
114 静止物检测点信息
115 位置/姿态信息
116 静止物检测点信息
117 分组信息
200 车辆
300 检测点
350 静止物检测点
400 分组
450 连结线
501 外部检测传感器
502 车辆运动检测传感器
503 车辆位置/姿态传感器
600 道路
610 护栏
901 处理器
902 主存储装置
903 辅助存储装置
904 通信装置。

Claims (13)

1.一种物体识别装置,其特征在于,包括:
提取部,该提取部提取在多个检测定时由传感器检测出的车辆周边的多个检测点中的静止物的检测点,以作为静止物检测点;以及
分组化部,该分组化部将在多个所述检测定时由所述提取部提取出的多个静止物检测点中、推测为同一静止物的检测点的2个以上的静止物检测点进行分组化。
2.如权利要求1所述的物体识别装置,其特征在于,
所述提取部基于各检测点的对地速度,来提取所述静止物检测点。
3.如权利要求1所述的物体识别装置,其特征在于,
所述分组化部将所述多个静止物检测点中由所述传感器检测出后的经过时间在规定时间内、且相距所述车辆的距离在规定距离内的、推测为同一静止物的检测点的2个以上的静止物检测点进行分组化。
4.如权利要求3所述的物体识别装置,其特征在于,
所述分组化部对每个分组计算分组中所包含的2个以上的静止物检测点中的空间密度,
将计算出的空间密度在空间密度阈值以下的分组放弃。
5.如权利要求4所述的物体识别装置,其特征在于,
所述分组化部根据分组与所述车辆之间的距离来使所述空间密度阈值发生变化。
6.如权利要求1所述的物体识别装置,其特征在于,
所述分组化部在得到多个分组的情况下,将多个所述分组中的任意2个以上的分组相连结。
7.如权利要求6所述的物体识别装置,其特征在于,
所述分组化部将彼此间的距离在阈值以下的2个以上的分组相连结。
8.如权利要求7所述的物体识别装置,其特征在于,
所述分组化部根据所述车辆的速度来使所述阈值发生变化。
9.如权利要求7所述的物体识别装置,其特征在于,
所述分组化部基于2个以上的分组的连结状况,来判别所述车辆能行驶的可行驶区域和所述车辆不能行驶的不可行驶区域。
10.如权利要求1所述的物体识别装置,其特征在于,
所述物体识别装置还包括:
车辆位置/姿态推定部,该车辆位置/姿态推定部推定所述车辆的位置和姿态中的至少任一个;以及
信息更新部,该信息更新部使用所述车辆位置/姿态推定部所得出的推定结果,来进行所述多个静止物检测点的坐标转换,
所述分组化部将坐标转换后的多个所述静止物检测点中推测为同一静止物的检测点的2个以上的静止物检测点进行分组化。
11.如权利要求1所述的物体识别装置,其特征在于,
所述物体识别装置还包括:
信息更新部,该信息更新部将多个所述静止物检测点中满足删除条件的静止物检测点删除。
12.一种物体识别方法,其特征在于,
计算机提取在多个检测定时由传感器检测出的车辆周边的多个检测点中的静止物的检测点,以作为静止物检测点,
所述计算机将在多个所述检测定时提取出的多个静止物检测点中、推测为同一静止物的检测点的2个以上的静止物检测点进行分组化。
13.一种物体识别程序,其特征在于,使计算机执行:
提取处理,该提取处理提取在多个检测定时由传感器检测出的车辆周边的多个检测点中的静止物的检测点,以作为静止物检测点;以及
分组化处理,该分组化处理将在多个所述检测定时由所述提取处理提取出的多个静止物检测点中、推测为同一静止物的检测点的2个以上的静止物检测点进行分组化。
CN201980101802.2A 2019-11-28 2019-11-28 物体识别装置、物体识别方法及物体识别程序 Pending CN114730526A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/046498 WO2021106130A1 (ja) 2019-11-28 2019-11-28 物体認識装置、物体認識方法及び物体認識プログラム

Publications (1)

Publication Number Publication Date
CN114730526A true CN114730526A (zh) 2022-07-08

Family

ID=76129247

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980101802.2A Pending CN114730526A (zh) 2019-11-28 2019-11-28 物体识别装置、物体识别方法及物体识别程序

Country Status (5)

Country Link
US (1) US11804135B2 (zh)
JP (1) JP7204942B2 (zh)
CN (1) CN114730526A (zh)
DE (1) DE112019007916T5 (zh)
WO (1) WO2021106130A1 (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10221451A (ja) * 1997-02-04 1998-08-21 Toyota Motor Corp 車両用レーダ装置
US20020107637A1 (en) * 2000-11-29 2002-08-08 Mitsubishi Denki Kabushiki Kaisha Vehicle surroundings monitoring apparatus
JP2003014844A (ja) * 2001-07-04 2003-01-15 Nissan Motor Co Ltd 物体種別判定装置及び物体種別判定方法
JP2004239792A (ja) * 2003-02-07 2004-08-26 Hitachi Ltd 車載用レーダ装置
JP2007065703A (ja) * 2005-08-29 2007-03-15 Alpine Electronics Inc 車両周辺物体検知装置およびシステム
CN101395492A (zh) * 2006-03-01 2009-03-25 丰田自动车株式会社 物体检测装置
CN102288148A (zh) * 2010-05-26 2011-12-21 三菱电机株式会社 道路形状推测装置以及道路形状推测方法
CN103348393A (zh) * 2010-11-04 2013-10-09 丰田自动车株式会社 道路形状推定装置
CN104793202A (zh) * 2014-01-16 2015-07-22 通用汽车环球科技运作有限责任公司 多雷达成像传感器的对象融合***
JP2019020167A (ja) * 2017-07-12 2019-02-07 株式会社デンソーテン レーダ装置及び信号処理方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3827804B2 (ja) 1997-04-09 2006-09-27 富士重工業株式会社 車両用運転支援装置
JP4563531B2 (ja) 1999-10-13 2010-10-13 富士重工業株式会社 車両用運転支援装置
JP3763733B2 (ja) 2000-10-12 2006-04-05 ダイハツ工業株式会社 駐車支援装置及びその制御方法
US8164628B2 (en) * 2006-01-04 2012-04-24 Mobileye Technologies Ltd. Estimating distance to an object using a sequence of images recorded by a monocular camera
JP2008207732A (ja) 2007-02-27 2008-09-11 Denso Corp 運転支援装置
JP2009086788A (ja) 2007-09-28 2009-04-23 Hitachi Ltd 車両周辺監視装置
JP5126556B2 (ja) * 2008-12-18 2013-01-23 トヨタ自動車株式会社 レーダーシステム
JP5464073B2 (ja) 2010-06-18 2014-04-09 日産自動車株式会社 車外環境認識装置、車外環境認識方法
JP2012026888A (ja) 2010-07-23 2012-02-09 Daihatsu Motor Co Ltd 自車位置認識装置
JP5724446B2 (ja) 2011-02-21 2015-05-27 日産自動車株式会社 車両の運転支援装置
CN104246821B (zh) * 2012-04-16 2016-08-17 日产自动车株式会社 三维物体检测装置和三维物体检测方法
CN104508728B (zh) * 2012-07-27 2016-06-15 日产自动车株式会社 三维物体检测装置
US9589193B2 (en) * 2012-07-27 2017-03-07 Nissan Motor Co., Ltd Three-dimensional object detection device and three-dimensional object detection method
US9199668B2 (en) * 2013-10-28 2015-12-01 GM Global Technology Operations LLC Path planning for evasive steering maneuver employing a virtual potential field technique
US9174672B2 (en) * 2013-10-28 2015-11-03 GM Global Technology Operations LLC Path planning for evasive steering maneuver in presence of target vehicle and surrounding objects
JP6413621B2 (ja) 2014-10-22 2018-10-31 株式会社デンソー 車載用物体判別装置
JP6294905B2 (ja) 2016-03-31 2018-03-14 株式会社Subaru 表示装置
JP6733277B2 (ja) 2016-04-13 2020-07-29 日産自動車株式会社 画像表示方法及び画像表示装置
JP6809087B2 (ja) 2016-09-28 2021-01-06 日産自動車株式会社 運転支援方法及び運転支援装置
CN109843677B (zh) 2016-10-13 2020-07-17 日产自动车株式会社 停车辅助方法及停车辅助装置
KR102295577B1 (ko) * 2017-02-08 2021-08-30 현대자동차주식회사 Ecu, 상기 ecu를 포함하는 무인 자율 주행 차량, 및 이의 주행 차로 판단 방법
WO2018173582A1 (ja) 2017-03-21 2018-09-27 株式会社デンソー 運転支援装置
JP6699648B2 (ja) 2017-03-21 2020-05-27 株式会社デンソー 運転支援装置
JP2019061328A (ja) 2017-09-25 2019-04-18 アイシン・エィ・ダブリュ株式会社 案内システム、及び案内プログラム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10221451A (ja) * 1997-02-04 1998-08-21 Toyota Motor Corp 車両用レーダ装置
US20020107637A1 (en) * 2000-11-29 2002-08-08 Mitsubishi Denki Kabushiki Kaisha Vehicle surroundings monitoring apparatus
JP2003014844A (ja) * 2001-07-04 2003-01-15 Nissan Motor Co Ltd 物体種別判定装置及び物体種別判定方法
JP2004239792A (ja) * 2003-02-07 2004-08-26 Hitachi Ltd 車載用レーダ装置
JP2007065703A (ja) * 2005-08-29 2007-03-15 Alpine Electronics Inc 車両周辺物体検知装置およびシステム
CN101395492A (zh) * 2006-03-01 2009-03-25 丰田自动车株式会社 物体检测装置
CN102288148A (zh) * 2010-05-26 2011-12-21 三菱电机株式会社 道路形状推测装置以及道路形状推测方法
CN103348393A (zh) * 2010-11-04 2013-10-09 丰田自动车株式会社 道路形状推定装置
CN104793202A (zh) * 2014-01-16 2015-07-22 通用汽车环球科技运作有限责任公司 多雷达成像传感器的对象融合***
JP2019020167A (ja) * 2017-07-12 2019-02-07 株式会社デンソーテン レーダ装置及び信号処理方法

Also Published As

Publication number Publication date
US11804135B2 (en) 2023-10-31
WO2021106130A1 (ja) 2021-06-03
JPWO2021106130A1 (zh) 2021-06-03
JP7204942B2 (ja) 2023-01-16
US20220351623A1 (en) 2022-11-03
DE112019007916T5 (de) 2022-10-13

Similar Documents

Publication Publication Date Title
CN112417967B (zh) 障碍物检测方法、装置、计算机设备和存储介质
CN109521756B (zh) 用于无人驾驶车辆的障碍物运动信息生成方法和装置
US11776155B2 (en) Method and apparatus for detecting target object in image
CN109212532B (zh) 用于检测障碍物的方法和装置
CN113264066B (zh) 障碍物轨迹预测方法、装置、自动驾驶车辆及路侧设备
JP7040374B2 (ja) 物体検出装置、車両制御システム、物体検出方法及び物体検出用コンピュータプログラム
CN111860155A (zh) 一种车道线的检测方法及相关设备
EP2657644B1 (en) Positioning apparatus and positioning method
US11398150B2 (en) Navigation analysis for a multi-lane roadway
US11648936B2 (en) Method and apparatus for controlling vehicle
CN112307978B (zh) 目标检测方法、装置、电子设备及可读存储介质
US10647315B2 (en) Accident probability calculator, accident probability calculation method, and non-transitory computer-readable medium storing accident probability calculation program
EP3660807A1 (en) Server device and vehicle
CN111292352A (zh) 多目标跟踪方法、装置、设备及存储介质
CN113587944B (zh) 准实时的车辆行驶路线生成方法、***及设备
CN111062405A (zh) 训练图像识别模型的方法和装置以及图像识别方法和装置
CN112558072A (zh) 车辆定位方法、装置、***、电子设备及存储介质
CN114234991A (zh) 导航路径规划方法、装置、计算机设备和存储介质
CN112622923B (zh) 用于控制车辆的方法和装置
CN113763425A (zh) 道路区域标定方法及电子设备
CN110390252B (zh) 基于先验地图信息的障碍物检测方法、装置和存储介质
CN112287842A (zh) 一种车道线的识别方法、装置及电子设备
CN114730526A (zh) 物体识别装置、物体识别方法及物体识别程序
CN112558036A (zh) 用于输出信息的方法和装置
JP2021140367A (ja) 通信装置、車両、プログラム、及び通信方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination