CN113165575B - 图像处理装置、拍摄装置、移动体、以及图像处理方法 - Google Patents
图像处理装置、拍摄装置、移动体、以及图像处理方法 Download PDFInfo
- Publication number
- CN113165575B CN113165575B CN201980077158.XA CN201980077158A CN113165575B CN 113165575 B CN113165575 B CN 113165575B CN 201980077158 A CN201980077158 A CN 201980077158A CN 113165575 B CN113165575 B CN 113165575B
- Authority
- CN
- China
- Prior art keywords
- state
- behavior
- moving body
- processor
- mobile body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims abstract description 110
- 238000003384 imaging method Methods 0.000 title claims description 30
- 238000003672 processing method Methods 0.000 title claims description 19
- 238000000034 method Methods 0.000 claims abstract description 84
- 230000008569 process Effects 0.000 claims abstract description 82
- 230000002093 peripheral effect Effects 0.000 claims abstract description 43
- 230000009471 action Effects 0.000 claims description 29
- 238000004891 communication Methods 0.000 abstract description 25
- 230000033001 locomotion Effects 0.000 abstract description 13
- 230000006399 behavior Effects 0.000 abstract 5
- 238000010586 diagram Methods 0.000 description 24
- 230000008859 change Effects 0.000 description 17
- 230000003287 optical effect Effects 0.000 description 5
- 230000014759 maintenance of location Effects 0.000 description 4
- 230000004397 blinking Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/14—Adaptive cruise control
- B60W30/16—Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/006—Alarm destination chosen according to type of event, e.g. in case of fire phone the fire service, in case of medical emergency phone the ambulance
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/017—Detecting movement of traffic to be counted or controlled identifying vehicles
- G08G1/0175—Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/161—Decentralised systems, e.g. inter-vehicle communication
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
- H04N5/772—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/54—Audio sensitive means, e.g. ultrasound
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
- G08G1/0112—Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Public Health (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Traffic Control Systems (AREA)
- Closed-Circuit Television Systems (AREA)
- Circuit For Audible Band Transducer (AREA)
- Television Signal Processing For Recording (AREA)
- Emergency Alarm Devices (AREA)
Abstract
本发明的图像处理装置具有通信接口和处理器。处理器根据对移动体的周边进行拍摄而得到的周边影像来检测其他移动体的像,基于检测到的其他移动体的状态,进行决定移动体的举动的举动决定处理。通信接口将指示所决定的移动体的举动的信息向移动体输出。作为举动决定处理,处理器基于从周边影像检测到的其他移动体的第一状态,决定移动体的第一举动,将指示决定的第一举动的信息向移动体输出。然后,在基于根据第一举动后的周边影像检测到的其他移动体的第二状态,判定为其他移动体正在进行危险驾驶的情况下,处理器决定移动体的第二举动。
Description
相关申请的参照
本申请主张日本国专利申请2018-222847号(2018年11月28日申请)的优先权,并将该申请的全部内容援引入本申请用于参照。
技术领域
本公开涉及图像处理装置、拍摄装置、移动体、以及图像处理方法。
背景技术
现在已知一种将车载摄像头的检测结果提供给驾驶员的驾驶辅助装置(例如参照专利文献1)。
现有技术文献
专利文献
专利文献1:日本特开2008-243065号公报
发明内容
本公开的实施方式的图像处理装置具有处理器和输出部。所述处理器根据对移动体的周边进行了拍摄而得到的周边影像来检测其他移动体的状态,基于该检测到的其他移动体的状态,进行决定所述移动体的举动的举动决定处理。所述输出部将指示由所述处理器所决定的所述移动体的举动的信息向所述移动体输出。所述处理器作为所述举动决定处理,基于根据所述周边影像检测到的其他移动体的第一状态,决定所述移动体的第一举动,将指示该决定的第一举动的信息经由所述输出部向所述移动体输出。然后,所述处理器在基于根据所述移动体的所述第一举动后的周边影像检测到的所述其他移动体的第二状态,判定为所述其他移动体正在进行危险驾驶的情况下,决定所述移动体的第二举动。
本公开的实施方式的拍摄装置具有所述图像处理装置、以及获取所述周边影像的输入部。
本公开的实施方式的移动体搭载有所述的拍摄装置。
在本公开的实施方式的图像处理方法中,图像处理装置检测根据对移动体的周边进行拍摄得到的周边影像而检测到的其他移动体的状态,基于该检测到的其他移动体的第一状态,决定所述移动体的第一举动。在所述图像处理方法中,所述图像处理装置将指示所述决定的第一举动的信息向所述移动体输出。在所述图像处理方法中,所述图像处理装置在基于根据所述移动体的所述第一举动后的周边影像检测到的所述其他移动体的第二状态,判定为所述其他移动体正在进行危险驾驶的情况下,决定所述移动体的第二举动。
附图说明
图1是表示本公开的一个实施方式的图像处理装置的结构的例子的图。
图2A是表示对象车辆相对于本车辆正在进行第一路怒驾驶的情况下的本车辆的举动的一例的图。
图2B是表示对象车辆相对于本车辆正在进行第一路怒驾驶的情况下的本车辆的举动的一例的图。
图2C是表示对象车辆相对于本车辆正在进行第一路怒驾驶的情况下的本车辆的举动的一例的图。
图3A是表示对象车辆相对于本车辆正在进行第二路怒驾驶的情况下的本车辆的举动的一例的图。
图3B是表示对象车辆相对于本车辆正在进行第二路怒驾驶的情况下的本车辆的举动的一例的图。
图3C是表示对象车辆相对于本车辆正在进行第二路怒驾驶的情况下的本车辆的举动的一例的图。
图4A是表示对象车辆相对于本车辆正在进行第三路怒驾驶的情况下的本车辆的举动的一例的图。
图4B是表示对象车辆相对于本车辆正在进行第三路怒驾驶的情况下的本车辆的举动的一例的图。
图4C是表示对象车辆相对于本车辆正在进行第三路怒驾驶的情况下的本车辆的举动的一例的图。
图5A是表示对象车辆相对于本车辆正在进行第四路怒驾驶的情况下的本车辆的举动的一例的图。
图5B是表示对象车辆相对于本车辆正在进行第四路怒驾驶的情况下的本车辆的举动的一例的图。
图5C是表示对象车辆相对于本车辆正在进行第四路怒驾驶的情况下的本车辆的举动的一例的图。
图6A是表示对象车辆相对于本车辆正在进行第五路怒驾驶的情况下的本车辆的举动的一例的图。
图6B是表示对象车辆相对于本车辆正在进行第五路怒驾驶的情况下的本车辆的举动的一例的图。
图6C是表示对象车辆相对于本车辆正在进行第五路怒驾驶的情况下的本车辆的举动的一例的图。
图7A是表示对象车辆相对于本车辆正在进行第六路怒驾驶的情况下的本车辆的举动的一例的图。
图7B是表示对象车辆相对于本车辆正在进行第六路怒驾驶的情况下的本车辆的举动的一例的图。
图7C是表示对象车辆相对于本车辆正在进行第六路怒驾驶的情况下的本车辆的举动的一例的图。
图8是表示本公开的一个实施方式的图像处理方法的一例的流程图。
图9是表示状态转换图的一例的图。
图10是表示本公开的一个实施方式的图像处理方法中的第一路怒驾驶判定处理的一例的流程图。
图11是表示本公开的一个实施方式的图像处理方法中的第二路怒驾驶判定处理的一例的流程图。
图12是表示本公开的一个实施方式的图像处理方法中的第三路怒驾驶判定处理的一例的流程图。
图13是表示本公开的一个实施方式的图像处理方法中的第四路怒驾驶判定处理的一例的流程图。
图14是表示本公开的一个实施方式的图像处理方法中的第五路怒驾驶判定处理的一例的流程图。
图15是表示本公开的一个实施方式的图像处理方法中的第六路怒驾驶判定处理的一例的流程图。
具体实施方式
通过车载摄像头检测对象车辆的状态、行人的状态、进入目的地道路的状态等,仅在能够右转或者不能右转的情况下进行向驾驶员的通知,从而向驾驶员提供真正需要的信息。在该情况下,在仅通过单纯地检测对象车辆的状态的过程中,例如,存在无法准确地判定对象车辆相对于本车辆是否正在进行路怒驾驶的问题。今后,在具备自动驾驶功能的车辆一般化的社会中,路怒驾驶的错误判定有可能成为妨碍交通的顺畅化的主要原因。要求实现交通的顺畅化。
以下,参照附图对本公开的实施方式进行示例说明。在各图中相同的附图标记表示相同或同等的结构要素。
在本说明书中,作为“路怒驾驶”,举出六种具体例进行说明。“路怒驾驶”是指对象车辆的驾驶员由于某种原因或目的对本车辆的驾驶员的驾驶进行路怒行为而妨碍交通的顺畅化的行为。将第一路怒驾驶设为“对象车辆相对于本车辆进行缩小车间距离的驾驶”。将第二路怒驾驶设为“对象车辆对于本车辆用喇叭进行威吓的驾驶”。将第三路怒驾驶设为“对象车辆在本车辆的后方进行蛇行的驾驶”。将第四路怒驾驶设为“对象车辆从本车辆的后方进行超车的驾驶”。将第五路怒驾驶设为“对象车辆对本车辆进行紧贴或追赶的驾驶”。将第六路怒驾驶设为“对象车辆侧面贴靠本车辆的驾驶”。
<图像处理装置的结构>
参照图1对本实施方式的图像处理装置10的结构进行说明。图1是表示本实施方式的图像处理装置10的结构的一例的图。
如图1所示,图像处理装置10搭载于移动体1(例如本车辆),根据对移动体1的周边进行拍摄而得到的周边影像来检测其他移动体(例如对象车辆)的状态。图像处理装置10基于检测到的其他移动体的状态,来决定使移动体1执行的举动。图像处理装置10将指示使移动体1执行的举动的信息向移动体1输出。移动体1除了拍摄装置1A以外,还具有例如车速传感器、测距传感器、麦克风、雷达、声呐、以及激光。
作为移动体1例如是具备自动驾驶功能的车辆。在本实施方式中,“自动驾驶”包括使驾驶车辆的用户操作的一部分或者全部自动化。例如,自动驾驶也可以包括在SAE(Society of Automotive Engineers:汽车工程师协会)中定义的等级1至5。以下,以移动体1具备在SAE中定义的等级4以上的全自动驾驶功能为例进行说明。
图像处理装置10具有作为输出部的通信接口12、处理器13、以及存储部14。在移动体1上搭载有具备图像处理装置10和作为输入部的拍摄部11的拍摄装置1A。
拍摄部11获取对移动体1的周边进行拍摄而得到的周边影像,将获取到的周边影像向处理器13输出。拍摄部11例如是搭载于移动体1的车载摄像头。拍摄部11也可以在移动体1上搭载有多台。在移动体1上搭载有四台车载摄像头的情况下,例如,第一台车载摄像头配置在能够对移动体1的前方的周边区域和移动体1的前侧面中的至少一部分进行拍摄的位置。例如,第二台车载摄像头配置在能够对移动体1的后方的周边区域和移动体1的后侧面中的至少一部分进行拍摄的位置。例如,第三台车载摄像头配置在能够对移动体1的左侧方的周边区域和移动体1的左侧面中的至少一部分进行拍摄的位置。例如,第四台车载摄像头配置在能够对移动体1的右侧方的周边区域和移动体1的右侧面中的至少一部分进行拍摄的位置。通过这样地配置拍摄部11,拍摄部11能够对移动体1的四方的周边区域进行拍摄。
拍摄部11至少具有拍摄光学***和拍摄元件。
拍摄光学***包括例如一个以上的透镜和光圈等光学构件。拍摄光学***所具备的透镜例如是鱼眼透镜等视角广的透镜。拍摄光学***使被拍摄体像在拍摄元件的受光面上成像。
拍摄元件例如包括CCD(Charge Coupled Device:电荷耦合器件)图像传感器或CMOS(Complementary Metal-Oxide Semiconductor:互补金属氧化物半导体)图像传感器等。在拍摄元件的受光面上排列有多个像素。拍摄元件对在受光面上成像的被拍摄体像进行拍摄而生成拍摄图像。拍摄部11将由拍摄元件生成的拍摄图像经由有线或无线向处理器13输出。拍摄部11也可以向搭载于移动体1的ECU(Electronic Control Unit:电子控制单元)、显示器、以及导航装置等外部装置输出拍摄图像。拍摄部11也可以具有对拍摄图像实施白平衡调整处理、曝光调整处理、以及伽马校正处理等规定的图像处理的功能。
通信接口12经由有线或无线与移动体1的各种控制***进行通信的接口。通信接口12与控制移动体1的行驶的控制***、控制移动体1的行驶以外(例如,灯的点亮/熄灭、方向指示灯的闪烁、或者鸣动喇叭等)的控制***等进行通信。
存储部14例如包含一次存储装置或二次存储装置等。存储部14存储图像处理装置10的动作所需的各种信息以及程序等。
处理器13例如包括DSP(Digital Signal Processor:数字信号处理器)等专用的处理器、或者CPU(Central Processing Unit:中央处理单元)等通用处理器。处理器13控制图像处理装置10整体的动作。例如,处理器13根据拍摄部11拍摄到的周边影像来检测其他移动体的状态,并基于检测到的其他移动体的状态,进行决定移动体1的举动的举动决定处理。作为处理器13所检测的其他移动体的状态,例如可举出第一状态、第二状态、第三状态等。
作为其他移动体的第一状态,处理器13检测例如相对于移动体1缩小车间距离的状态,针对移动体1用喇叭进行威吓的状态,在移动体1的后方进行蛇行的状态,在移动体1的后方进行超车的状态,针对移动体1进行紧贴或追赶的状态,或者侧面贴靠移动体1的状态中的任一种。作为其他移动体的第二状态,处理器13检测例如继续第一状态、重复第一状态中的任一种。作为其他移动体的第三状态,处理器13检测例如继续第一状态、重复第一状态中的任一种。
处理器13经由通信接口12访问移动体1的各种控制***,决定移动体1的举动。作为处理器13所决定的移动体1的举动,例如可举出第一举动、第二举动、第三举动等。
作为移动体1的第一举,动处理器13决定例如以法定速度的继续行驶、变更车道、进行用于对其他移动体唤起注意的喇叭鸣动、向最近的便利店避让、或者向最近的服务区或停车区的避让中的任一种。最近的便利店或者最近的服务区或停车区统称为避让场所。例如,处理器13访问控制移动体1的行驶的控制***,决定以法定速度的继续行驶、变更车道、向最近的便利店的避让、或者向最近的服务区或停车区的避让等移动体1中的第一举动。例如,处理器13访问控制移动体1的行驶以外的控制***,决定进行用于对其他移动体唤起注意的鸣动喇叭等移动体1中的第一举动。
作为移动体1的第二举动,处理器13决定例如报警、停止、减速、向最近的便利店的避让、或者向最近的服务区或停车区的避让、向行车记录仪的记录、将周边影像上传至规定的网络的、显示其他移动体正在进行危险驾驶中的任一种。第二举动是指,在移动体1进行了第一举动之后,而其他移动体仍然继续第一状态或者重复第一状态时,移动体1进行的举动,也称为“危险回避的举动”。
例如,处理器13访问控制移动体1的行驶的控制***,决定停止、减速、向最近的便利店的避让、或者向最近的服务区或停车区的避让等移动体1的第二举动。例如,处理器13访问控制移动体1的行驶以外的控制***,决定向行车记录仪的记录、显示其他移动体正在进行危险驾驶等移动体1的第二举动。
作为移动体1的第三举动,处理器13决定例如报警、停止、向最近的便利店的避让、或者向最近的服务区或停车区的避让、停止后的锁车门中的任一种。第三举动是指,在移动体1进行了第二举动之后,而其他移动体仍然继续第一状态或重复第一状态时,移动体1进行的举动,也称为“紧急避险的举动”。
例如,处理器13访问控制移动体1的行驶的控制***,决定停止、向最近的便利店的避让、或者向最近的服务区或停车区的避让等移动体1的第三举动。例如,处理器13访问控制移动体1的行驶以外的控制***,决定停止后的锁车门等移动体1的第三举动。
处理器13进行以下的动作作为举动决定处理。处理器13根据拍摄部11拍摄到的周边影像来检测其他移动体的状态,基于检测到的其他移动体的第一状态,决定移动体1的第一举动。处理器13将指示所决定的第一举动的信息经由通信接口12向移动体1的控制***输出。
例如,处理器13决定移动体1的第一举动,将指示以法定速度的继续行驶、变更车道、进行用于对其他移动体唤起注意的鸣动喇叭、向最近的便利店的避让、或者向最近的服务区或停车区的避让等的信息经由通信接口12向移动体1输出,使移动体1执行这些动作。
处理器13在基于移动体1的第一举动后,根据拍摄部11拍摄到的周边影像来检测其他移动体的状态,基于检测到的其他移动体的第二状态,在判定其他移动体正在进行危险驾驶的情况下,决定移动体1的第二举动。处理器13将指示所决定的第二举动的信息经由通信接口12向移动体1的控制***输出。
例如,处理器13决定移动体1的第二举动,将指示报警、停止、减速、向最近的便利店的避让、或者向最近的服务区或停车区的避让、向行车记录仪的记录、将周边影像上传至规定的网络的、显示其他移动体正在进行危险驾驶等的信息经由通信接口12向移动体1输出,使移动体1执行这些动作。
即,处理器13在判定为其他移动体针对移动体1的第一举动仍然进行危险驾驶的情况下,推定其他移动体正在进行路怒驾驶。然后,处理器13为了更准确地检测其他移动体是否正在进行路怒驾驶,决定移动体1的第二举动。
处理器13在基于移动体1的第二举动之后,根据拍摄部11拍摄到的周边影像检测其他移动体的状态,基于检测到的其他移动体的第三状态,在判定为其他移动体正在进行危险驾驶的情况下,决定移动体1的第三举动。处理器13将指示所决定的第三举动的信息经由通信接口12向移动体1的控制***输出。
例如,处理器13决定移动体1的第三举动,将指示报警、停止、向最近的便利店的避让、或者向最近的服务区或停车区的避让、停止后的锁车门等的信息经由通信接口12向移动体1输出,使移动体1执行这些动作。
即,处理器13在判定为其他移动体针对移动体1的第二举动仍然进行危险驾驶的情况下,推定为其他移动体正在进行路怒驾驶。然后,处理器13为了更准确地检测其他移动体是否正在进行路怒驾驶,决定移动体1的第三举动。
如上所述,处理器13在基于移动体1的第一举动后,基于根据拍摄部11拍摄到的周边影像检测到的其他移动体的第二状态,在判定为其他移动体正在进行危险驾驶的情况下,决定移动体1的第二举动。进而,处理器13在基于移动体1的第二举动后,基于根据拍摄部11拍摄到的周边影像检测到的其他移动体的第三状态,在判定为其他移动体正在进行危险驾驶的情况下,决定移动体1的第三举动。
根据本实施方式的图像处理装置10,根据对移动体1的周边进行了拍摄而得到的周边影像来检测其他移动体的第一状态,基于第一状态,决定移动体1的第一举动。然后,在移动体1的第一举动后,根据对移动体1的周边进行了拍摄而得到的周边影像来检测其他移动体的第二状态,基于第二状态,在判定为其他移动体正在进行危险驾驶的情况下,决定移动体1的第二举动。即,在移动体1的第一举动后,通过仍然判定其他移动体是否正在进行危险驾驶,能够准确地判定其他移动体对移动体1是否正在进行路怒驾驶。即,与以往仅通过单纯地检测其他移动体的状态来判定其他移动体对移动体1是否正在进行路怒驾驶相比,能够提高路怒驾驶的判定精度。由此,移动体1能够对实际上正在进行路怒驾驶的其他移动体采取适当的措施,因此能够实现交通的顺畅化。
<移动体1的举动的具体例>
接着,参照图2A~图2C、图3A~图3C、图4A~图4C、图5A~图5C、图6A~图6C、以及图7A~图7C对其他移动体2对移动体1正在进行路怒驾驶的情况下的移动体1的举动的具体例进行说明。
〔第一路怒驾驶的情况〕
如图2A所示,图像处理装置10通过配置在能够对移动体1的后方的周边区域进行拍摄的位置的拍摄部11对移动体1的后方的周边区域进行拍摄。图像处理装置10计算移动体1与其他移动体2的车间距离。
图像处理装置10基于移动体1的后方的周边影像以及移动体1与其他移动体2的车间距离,推定为其他移动体2正在进行第一路怒驾驶。在该情况下,如图2B所示,图像处理装置10决定“变更车道”作为移动体1的第一举动,并将指示该第一举动的信息向移动体1输出。
之后,图像处理装置10基于移动体1的后方的周边影像以及移动体1与其他移动体2的车间距离,在判定为移动体1的第一举动后其他移动体2仍然继续第一路怒驾驶的情况下,决定移动体1的第二举动。在该情况下,如图2C所示,图像处理装置10决定“向最近的便利店的避让”作为移动体1的第二举动,并将指示该第二举动的信息向移动体1输出。
〔第二路怒驾驶的情况〕
如图3A所示,图像处理装置10通过配置在能够对移动体1的后方的周边区域进行拍摄的位置的拍摄部11对移动体1的后方的周边区域进行拍摄。图像处理装置10通过搭载于移动体1的麦克风检测其他移动体2的喇叭的鸣动。
图像处理装置10基于移动体1的后方的周边影像以及其他移动体2的喇叭的鸣动,推定为其他移动体2正在进行第二路怒驾驶。在该情况下,如图3B所示。图像处理装置10决定变更车道作为移动体1的第一举动,并将指示该第一举动的信息向移动体1输出。
之后,图像处理装置10基于移动体1的后方的周边影像以及其他移动体2的喇叭的鸣动,判定在移动体1的第一举动后其他移动体2仍然继续第一路怒驾驶的情况下,决定移动体1的第二举动。在该情况下,如图3C所示,图像处理装置10决定“向最近的便利店的避让”作为移动体1的第二举动,并将指示该第二举动的信息向移动体1输出。
〔第三路怒驾驶的情况〕
如图4A所示,图像处理装置10通过配置在能够对移动体1的后方的周边区域进行拍摄的位置的拍摄部11对移动体1的后方的周边区域进行拍摄。图像处理装置10计算移动体1与其他移动体2的车间距离。
图像处理装置10基于移动体1的后方的周边影像以及移动体1与其他移动体2的车间距离,推定为其他移动体2正在进行第三路怒驾驶。在该情况下,如图4B所示,图像处理装置10决定“变更车道”作为移动体1的第一举动,并将指示该第一举动的信息向移动体1输出。
之后,图像处理装置10基于移动体1的后方的周边影像以及移动体1与其他移动体2的车间距离,判定在移动体1的第一举动后其他移动体2仍然继续第一路怒驾驶的情况下,决定移动体1的第二举动。在该情况下,如图4C所示,图像处理装置10决定“向最近的便利店的避让”作为移动体1的第二举动,并将指示该第二举动的信息向移动体1输出。
〔第四路怒驾驶的情况〕
如图5A所示,图像处理装置10通过配置在能够对移动体1的后方的周边区域进行拍摄的位置的拍摄部11对移动体1的后方的周边区域进行拍摄。图像处理装置10计算移动体1与其他移动体2的车间距离。图像处理装置10基于由拍摄部11拍摄到的周边影像,来检测其他移动体2在移动体1的后方前灯的闪烁、或者、其他移动体2在移动体1的后方以高亮度的状态向上点亮前灯。
图像处理装置10基于移动体1的后方的周边影像、移动体1与其他移动体2的车间距离、以及其他移动体2的前灯的状况,推定为其他移动体2正在进行第四路怒驾驶。在该情况下,如图5B所示,图像处理装置10决定“变更车道”作为移动体1的第一举动,将指示该第一举动的信息向移动体1输出。
然后,图像处理装置10基于移动体1的后方的周边影像、移动体1与其他移动体2的车间距离、以及其他移动体2的前灯的状况,判定为在移动体1的第一举动后其他移动体2仍然继续第一路怒驾驶的情况下,决定移动体1的第二举动。在该情况下,如图5C所示,图像处理装置10决定“向最近的便利店的避让”作为移动体1的第二举动,并将指示该第二举动的信息向移动体1输出。
〔第五路怒驾驶的情况〕
如图6A所示,图像处理装置10通过配置在能够对移动体1的后方的周边区域进行拍摄的位置的拍摄部11对移动体1的后方的周边区域进行拍摄。图像处理装置10计算移动体1与其他移动体2的车间距离。
图像处理装置10基于移动体1的后方的周边影像以及移动体1与其他移动体2的车间距离,推定为其他移动体2正在进行第五路怒驾驶。在该情况下,如图6B所示,图像处理装置10决定“变更车道”作为移动体1的第一举动,并将指示该第一举动的信息向移动体1输出。
然后,图像处理装置10基于移动体1的后方的周边影像、以及移动体1与其他移动体2的车间距离,在判定为移动体1的第一举动后其他移动体2仍然继续第五路怒驾驶的情况下,决定移动体1的第二举动。在该情况下,如图6C所示,图像处理装置10决定“向最近的便利店的避让”作为移动体1的第二举动,并将指示该第二举动的信息向移动体1输出。
然后,图像处理装置10基于移动体1的周边影像以及移动体1与其他移动体2的车间距离,在判定为移动体1的第二举动后其他移动体2仍然继续第五路怒驾驶的情况下,决定移动体1的第三举动。在该情况下,如图6C所示,图像处理装置10决定“锁车门并报警”作为移动体1的第三举动,并将指示该第三举动的信息向移动体1输出。
〔第六路怒驾驶的情况〕
如图7A所示,图像处理装置10通过配置在能够对移动体1的后方的周边区域、移动体1的后侧面中的至少一部分的区域、移动体1的右方的周边区域、移动体1的右侧面中的至少一部分的区域进行拍摄的位置的拍摄部11对移动体1的后方、后侧面、右方、右侧面的周边区域进行拍摄。图像处理装置10计算移动体1与其他移动体2的车间距离。
图像处理装置10基于移动体1的后方的周边影像、移动体1的右方的周边影像、以及移动体1与其他移动体2的车间距离,推定为其他移动体2正在进行第六路怒驾驶。在该情况下,如图7B所示,图像处理装置10决定“进行用于对其他移动体唤起注意的喇叭的鸣动”,作为移动体1的第一举动,并将指示该第一举动的信息向移动体1输出。
然后,图像处理装置10基于移动体1的后方的周边影像、移动体1的右方的周边影像、以及移动体1与其他移动体2的车间距离,在判定为移动体1的第一举动后其他移动体2仍然继续第六路怒驾驶的情况下,决定移动体1的第二举动。在该情况下,如图7C所示,图像处理装置10决定“变更车道、减速”作为移动体1的第二举动,并将指示该第二举动的信息向移动体1输出。
然后,图像处理装置10基于移动体1的后方的周边影像以及移动体1与其他移动体2的车间距离,在判定为移动体1的第二举动后其他移动体2仍然继续第六路怒驾驶的情况下,决定移动体1的第三举动。在该情况下,图像处理装置10决定“为了回避冲突而停止”作为第三举动,并将指示该举动的信息向移动体1输出。
表1是在一般道路的行驶中,基于由处理器13决定的移动体1的第一举动以及移动体1的第二举动、以及周边影像等,汇总由处理器13检测到的其他移动体2的第一状态以及其他移动体2的第二状态的表。
表1
例如,在其他移动体2的第一状态为“其他移动体2缩小与移动体1的车间距离”的情况下,处理器13决定“遵守法定速度,继续行驶”或者“确认变更行进路线的车道的安全,进行变更车道”,作为移动体1的第一举动。
进而,在其他移动体2的第二状态为“其他移动体2继续第一状态”或者“其他移动体2紧贴、追赶移动体1”的情况下,处理器13决定“在最近的便利店等停住,让路”,作为移动体1的第二举动。
例如,在其他移动体2的第一状态为“其他移动体2对移动体1鸣喇叭”的情况下,处理器13决定“遵守法定速度,继续行驶”或者“确认变更行进路线的车道的安全,进行变更车道”,作为移动体1的第一举动。
进而,在其他移动体2的第二状态为“其他移动体2继续第一状态”或者“其他移动体2紧贴、追赶移动体1”的情况下,处理器13决定“在最近的便利店,让路”,作为移动体1的第二举动。
例如,在其他移动体2的第一状态为“其他移动体2在移动体1后方进行蛇行驾驶”的情况下,处理器13决定“遵守法定速度,继续行驶”或者“确认变更行进路线的车道的安全,进行变更车道”,作为移动体1的第一举动。
进而,在其他移动体2的第二状态为“其他移动体2继续第一状态”或者“其他移动体2紧贴、追赶移动体1”的情况下,处理器13决定“停在最近的便利店、让路”,作为移动体1的第二举动。
例如,在其他移动体2的第一状态为“其他移动体2对移动体1超车”的情况下,处理器13决定“遵守法定速度,继续行驶”或者“确认变更行进路线的车道的安全,进行变更车道”,作为移动体1的第一举动。
进而,在其他移动体2的第二状态为“其他移动体2继续第一状态”或者“其他移动体2紧贴、追赶移动体1”的情况下,处理器13决定“停在最近的便利店、让路”,作为移动体1的第二举动。
例如,在其他移动体2的第一状态为“其他移动体2紧贴、追赶移动体1”的情况下,处理器13决定“停在最近的便利店、让路”或者“确认变更行进路线的车道的安全,进行变更车道”,作为移动体1的第一举动。
进而,在其他移动体2的第二状态为“其他移动体2继续第一状态”的情况下,处理器13决定“在最近的便利店等停车,报警”,作为移动体1的第二举动。
例如,在其他移动体2的第一状态为“其他移动体2侧面贴靠移动体1”的情况下,处理器13决定“为了对其他移动体2唤起注意而鸣起喇叭”,作为移动体1的第一举动。
进而,在其他移动体2的第二状态为“其他移动体2停止侧面贴靠的行为”或者“其他移动体2继续侧面贴靠的行为”的情况下,处理器13决定“继续行驶”或者“为了回避冲突而减速”,作为移动体1的第二举动。
表2是在高速道路的行驶中,基于由处理器13决定的移动体1的第一举动以及移动体1的第二举动、周边影像等,汇总由处理器13检测到的其他移动体2的第一状态以及其他移动体2的第二状态的表。
表2
例如,在其他移动体2的第一状态为“其他移动体2缩小与移动体1的车间距离”的情况下,处理器13决定“遵守法定速度,继续行驶”或者“确认变更行进路线的车道的安全,进行变更车道”,作为移动体1的第一举动。
进而,在其他移动体2的第二状态为“其他移动体2继续第一状态”或者“其他移动体2紧贴、追赶移动体1”的情况下,处理器13决定“暂时在服务区或者停车区等安全场所避险”作为移动体1的第二举动。
例如,在其他移动体2的第一状态为“其他移动体2对移动体1鸣喇叭”的情况下,处理器13决定“遵守法定速度,继续行驶”或者“确认变更行进路线的车道的安全,进行变更车道”,作为移动体1的第一举动。
进而,在其他移动体2的第二状态为“其他移动体2继续第一状态”或者“其他移动体2紧贴、追赶移动体1”的情况下,处理器13决定“暂时在服务区或者停车区等安全场所避险”,作为移动体1的第二举动。
例如,在其他移动体2的第一状态为“其他移动体2在移动体1后方进行蛇行驾驶”的情况下,处理器13决定“遵守法定速度,继续行驶”或者“确认变更行进路线的车道的安全,进行变更车道”,作为移动体1的第一举动。
进而,在其他移动体2的第二状态为“其他移动体2继续第一状态”或者“其他移动体2紧贴、追赶移动体1”的情况下,处理器13决定“暂时在服务区或者停车区等安全场所避险”,作为移动体1的第二举动。
例如,在其他移动体2的第一状态为“其他移动体2对移动体1进行超车”的情况下,处理器13决定“遵守法定速度,继续行驶”或者“确认变更行进路线的车道的安全,进行变更车道”,作为移动体1的第一举动。
进而,在其他移动体2的第二状态为“其他移动体2继续第一状态”或者“其他移动体2紧贴、追赶移动体1”的情况下,处理器13决定“暂时在服务区或者停车区等安全场所避险”,作为移动体1的第二举动。
例如,在其他移动体2的第一状态为“其他移动体2紧贴、追赶移动体1”的情况下,处理器13决定“进入最近的服务区或者停车区”或者“确认变更行进路线的车道的安全,进行变更车道”,作为移动体1的第一举动。
进而,在其他移动体2的第二状态为“其他移动体2继续第一状态”的情况下,处理器13决定“报警”或者“进入最近的服务区或者停车区,报警”,作为移动体1的第二举动。
例如,在其他移动体2的第一状态为“其他移动体2侧面贴靠移动体1”的情况下,处理器13决定“为了对其他移动体2唤起注意而鸣起喇叭”,作为移动体1的第一举动。
进而,在其他移动体2的第二状态为“其他移动体2停止侧面贴靠的行为”或者“其他移动体2继续侧面贴靠的行为”的情况下,处理器13决定“继续行驶”或者“为了回避冲突而减速”,作为移动体1的第二举动。
如上所述,图像处理装置10根据对移动体1的周边进行了拍摄而得到的周边影像来检测其他移动体22的第一状态,基于第一状态,决定移动体1的第一举动。然后,图像处理装置10在移动体1的第一举动后,根据对移动体1的周边进行了拍摄而得到的周边影像来检测其他移动体22的第二状态,基于第二状态,在判定为其他移动体22正在进行危险驾驶的情况下,决定移动体1的第二举动。即,图像处理装置10通过判定在移动体1的第一举动后其他移动体22是否仍然进行危险驾驶,能够准确地判定其他移动体2针对移动体是否正在进行路怒驾驶。由此,移动体1能够对实际上正在进行路怒驾驶的其他移动体22采取适当的措施,因此能够实现交通的顺畅化。
<图像处理装置的动作>
接着,参照图8对本实施方式的图像处理装置10中的图像处理方法进行说明。图8是表示本实施方式的图像处理装置10中的图像处理方法的一例的流程图。
步骤S0:处理器13进行初始化处理。
步骤S1:处理器13进行第一路怒驾驶判定处理。作为处理器13在第一路怒驾驶判定处理中使用的信息,例如可举出移动体1的车速、与移动体1的车速对应的移动体1与其他移动体2的车间距离(参照表3)、其他移动体2滞留在移动体1的规定范围内的滞留时间等。
表3
/>
例如,在其他移动体2在移动体1的规定范围内滞留3秒以上的情况下,处理器13判定为其他移动体2正在进行第一路怒驾驶。例如,在其他移动体2在移动体1的规定范围内滞留少于3秒时间的情况下,处理器13判定为其他移动体2未进行第一路怒驾驶。
步骤S2:处理器13进行第二路怒驾驶判定处理。作为处理器13在第二路怒驾驶判定处理中使用的信息,例如可举出移动体1的车速、与移动体1的车速对应的移动体1与其他移动体2的车间距离(参照表3)、或者其他移动体2的鸣动喇叭次数以及鸣动音量等。
例如,在其他移动体2在1分钟内鸣动喇叭5次以上的情况下,处理器13判定为其他移动体2正在进行第二路怒驾驶。例如,在其他移动体2在1分钟内鸣动喇叭少于5次的情况下,处理器13判定为其他移动体2未进行第二路怒驾驶。
步骤S3:处理器13进行第三路怒驾驶判定处理。作为处理器13在第三路怒驾驶判定处理中使用的信息,例如可举出移动体1的车速、与移动体1的车速对应的移动体1与其他移动体2的车间距离(参照表3)、其他移动体2滞留在移动体1的规定范围内的滞留时间、其他移动体2的蛇行驾驶的振幅、或者其他移动体2的蛇行驾驶的周期等。
例如,在其他移动体2的蛇行驾驶的振幅为900mm以上并且其他移动体2的蛇行驾驶的周期为1秒以上且5秒以下的情况下,处理器13判定其他移动体2正在进行第三路怒驾驶。例如,在其他移动体2的蛇行驾驶的振幅小于900mm的情况下或者在其他移动体2的蛇行驾驶的周期长于5秒的情况下,处理器13判定为其他移动体2未进行第三路怒驾驶。此外,900mm是指作为标准的车辆的宽度1800mm的大致一半。
步骤S4:处理器13进行第四路怒驾驶判定处理。作为处理器13在第四路怒驾驶判定处理中使用的信息,例如可举出移动体1的车速、与移动体1的车速对应的移动体1与其他移动体2的车间距离(参照表3)、其他移动体2滞留在移动体1的规定范围内的滞留时间、其他移动体2的前灯的照度、其他移动体2的超车的频度、或者其他移动体2的超车的明暗周期等。
例如,在其他移动体2的前灯的照度为10000lx以上的情况下,处理器13判定为其他移动体2正在进行第四路怒驾驶。例如,在其他移动体2的前灯的照度小于10000lx的情况下,处理器13判定为其他移动体2未进行第四路怒驾驶。
例如,在其他移动体2中的超车的明暗周期在500毫米秒以上且2秒以下的情况下,处理器13判定为其他移动体2正在进行第四路怒驾驶。例如,在其他移动体2中的超车的明暗周期长于2秒的情况下,处理器13判定为其他移动体2未进行第四路怒驾驶。
步骤S5:处理器13进行第五路怒驾驶判定处理。作为处理器13在第五路怒驾驶判定处理中使用的信息,例如可举出移动体1的车速、与移动体1的车速对应的移动体1与其他移动体2的车间距离(参照表3)、其他移动体2在移动体1的规定范围内的滞留时间、其他移动体2进行紧贴以及追赶的次数等。
例如,在移动体1变更车道后而其他移动体2仍然重复进行2次以上紧贴以及追赶的情况下,处理器13判定为其他移动体2正在进行第五路怒驾驶。例如,在移动体1变更车道后而其他移动体2未进行紧贴以及追赶的情况下,处理器13判定为其他移动体2未进行第五路怒驾驶。
步骤S6:处理器13进行第六路怒驾驶判定处理。作为处理器13在第六路怒驾驶判定处理中使用的信息,例如可举出移动体1的车速、与移动体1的车速对应的移动体1与其他移动体2的车间距离(参照表3),移动体1与其他移动体2的侧面的距离、其他移动体2进行侧面贴靠的次数等。
例如,在移动体1与其他移动体2的侧面的距离少于2m的情况下,处理器13判定为其他移动体2正在进行第六路怒驾驶。例如,在移动体1与其他移动体2的侧面的距离为2m以上的情况下,处理器13判定为其他移动体2未进行第六路怒驾驶。
例如,在移动体1变更车道后其他移动体2仍然重复进行2次以上的侧面贴靠的情况下,处理器13判定为其他移动体2正在进行第六路怒驾驶。例如,在移动体1变更车道之后其他移动体2未进行侧面贴靠的情况下,处理器13判定为其他移动体2未进行第六路怒驾驶。
处理器13并行地执行上述步骤S1~步骤S6中的路怒驾驶判定处理。处理器13可以仅通过一个步骤来执行路怒驾驶判定处理,也可以组合多个步骤来执行路怒驾驶判定处理。通过组合多个步骤来执行路怒驾驶判定处理,能够更准确地判定其他移动体2是否正在进行路怒驾驶。
接着,参照图9对路怒判定状态标志进行简单地说明。图9是表示路怒判定状态标志中的状态转换图的一例的图。
如图9所示,路怒判定状态标志具有例如,“无”的状态、“临时确定”的状态、“确定”的状态这三个状态。处理器13管理路怒判定状态标志,执行上述步骤S1~步骤S6那样的路怒驾驶判定处理。
状态A是“无”的状态即初始状态。
状态B是“临时确定”的状态。在状态B下,如果处理器13基于其他移动体2的第一状态,推定为正在进行路怒驾驶,则向移动体1输出行动指示。在状态B下,如果处理器13基于其他移动体2的第一状态,推定为未进行路怒驾驶,则不向移动体1输出行动指示(状态B→状态A)。
状态C是“确定”的状态。在状态C下,如果处理器13基于其他移动体2的第二状态,推定为正在进行路怒驾驶,则向移动体1输出危险回避行动指示。在状态C下,如果处理器13基于其他移动体2的第二状态,推定为未进行路怒驾驶,则不向移动体1输出危险回避行动指示(状态C→状态A)。
根据本实施方式的图像处理方法,路怒判定状态标志具有三个状态,例如,在“临时确定”的状态下,处理器13向移动体1输出行动指示,例如,在“确定”的状态下,处理器13向移动体输出危险回避行动指示。即,根据本实施方式的图像处理方法,不是只通过其他移动体2的第一状态来判定其他移动体2针对移动体1是否正在进行路怒驾驶,还考虑移动体1的第一举动后的其他移动体2的第二状态,来判定其他移动体2针对移动体1是否正在进行路怒驾驶。由此,能够抑制路怒驾驶的错误判定,减少在移动体1与其他移动体2之间产生无意义的争执的可能性,因此能够实现交通的顺畅化。
<路怒驾驶判定处理的具体例>
接着,参照图10至图15对本实施方式的路怒驾驶判定处理的具体例进行说明。
〔第一路怒驾驶判定处理〕
图10是表示第一路怒驾驶判定处理的一例的流程图。第一路怒驾驶判定处理由搭载于图像处理装置10的处理器13执行。
步骤S11:处理器13从搭载于移动体1的车速传感器获取移动体1的车速。
步骤S12:处理器13基于表3,计算出移动体1与其他移动体2的适当的车间距离。即,处理器13根据移动体1的车速来决定安全的车间距离、危险的车间距离。
步骤S13:处理器13基于对移动体1的周边进行拍摄而得到的周边影像,来判定其他移动体2是否存在于移动体1的规定范围内。处理器13判定为其他移动体2存在于移动体1的规定范围内的情况下(步骤S13为是),则进入步骤S14的处理。处理器13判定为其他移动体2不存在于移动体1的规定范围内的情况下(步骤S13为否),则进入步骤S20的处理。
步骤S14:处理器13判定其他移动体2滞留在移动体1的规定范围内的时间是否为3秒以上。处理器13在判定为车辆滞留时间为3秒以上的情况(步骤S14为是)下,进入步骤S15的处理。处理器13在判定为车辆滞留时间少于3秒的情况下(步骤S14为否)进入步骤S20的处理。
步骤S15:处理器13判定第一路怒判定标志是“无”的状态,还是“临时确定”的状态,还是“确定”的状态。处理器13在判定为第一路怒判定标志是“确定”的状态的情况下(步骤S15为“确定”),进入步骤S17的处理。处理器13在判定为第一路怒判定标志是判定状态的“临时确定”的情况下(步骤S15为“临时确定”),进入步骤S16的处理。处理器13在判定为第一路怒判定标志是判定状态的“无”的状态的情况下(步骤S15为“无”),进入步骤S18的处理。
步骤S16:处理器13将第一路怒判定标志从“临时确定”的状态切换为“确定”的状态。
步骤S17:处理器13将指示移动体1的举动(第二举动)的信息经由通信接口12向移动体1输出,将危险回避行动指示向移动体1输出。
步骤S18:处理器13将第一路怒判定标志从“无”的状态切换为“临时确定”的状态。
步骤S19:处理器13将指示移动体1的举动(第一举动)的信息经由通信接口12向移动体1输出,并将行动指示向移动体1输出。
步骤S20:处理器13将第一路怒判定标志设为“无”的状态。即,处理器13推定为其他移动体2的驾驶员不具有想要进行路怒驾驶的意图,继续移动体1的全自动驾驶。
〔第二路怒驾驶判定处理〕
图11是表示第一路怒驾驶判定处理的一例的流程图。第一路怒驾驶判定处理由搭载于图像处理装置10的处理器13执行。
步骤S21:处理器13从搭载于移动体1的车速传感器获取移动体1的车速。
步骤S22:处理器13基于表3计算出移动体1与其他移动体2的适当的车间距离。即,处理器13根据移动体1的车速,来决定安全的车间距离、危险的车间距离。
步骤S23:处理器13基于对移动体1的周边进行拍摄而得到的周边影像,判定其他移动体2是否存在于移动体1的规定范围内。处理器13在判定为其他移动体2存在于移动体1的规定范围内的情况下(步骤S23为是),进入步骤S14的处理。处理器13在判定为其他移动体2不存在于移动体1的规定范围内的情况下(步骤S23为否),进入步骤S30的处理。
步骤S24:处理器13根据搭载于移动体1的麦克风,来判定是否连续检测到喇叭鸣动。处理器13在判定为连续检测到喇叭鸣动的情况下(步骤S24为是),进入步骤S25的处理。处理器13在判定为未连续检测到喇叭鸣动的情况下(步骤S24为否),进入步骤S30的处理。
步骤S25:处理器13判定第二路怒判定标志是“无”的状态,还是“临时确定”的状态,还是“确定”的状态。处理器13在判定为第二路怒判定标志是“确定”的状态的情况下(步骤S25为“确定”),进入步骤S27的处理。处理器13在判定为第二路怒判定标志是判定状态的“临时确定”的情况下(步骤S25为“临时确定”),进入步骤S26的处理。处理器13在判定为第二路怒判定标志是判定状态的“无”的状态的情况下(步骤S25为“无”),进入步骤S28的处理。
步骤S26:处理器13将第二路怒判定标志从“临时确定”的状态切换为“确定”的状态。
步骤S27:处理器13将指示移动体1的举动(第二举动)的信息经由通信接口12向移动体1输出,并将危险回避行动指示向移动体1输出。
步骤S28:处理器13将第二路怒判定标志从“无”的状态切换为“临时确定”的状态。
步骤S29:处理器13将指示移动体1的举动(第二举动)的信息经由通信接口12向移动体1输出,并将行动指示向移动体1输出。
步骤S30:处理器13将第二路怒判定标志设为“无”的状态。即,处理器13在推定为其他移动体2的驾驶员不具有想要进行路怒驾驶的意图,继续移动体1的全自动驾驶。
〔第三路怒驾驶判定处理〕
图12是表示第三路怒驾驶判定处理的一例的流程图。第三路怒驾驶判定处理由搭载于图像处理装置10的处理器13执行。
步骤S31:处理器13从搭载于移动体1的车速传感器获取移动体1的车速。
步骤S32:处理器13基于表3,计算出移动体1与其他移动体2的适当的车间距离。即,处理器13根据移动体1的车速,来决定安全的车间距离、危险的车间距离。
步骤S33:处理器13基于对移动体1的周边进行拍摄而得到的周边影像,判定其他移动体2是否存在于移动体1的规定范围内。处理器13在判定为其他移动体2存在于移动体1的规定范围内的情况下(步骤S33为是),进入步骤S34的处理。处理器13在在判定为其他移动体2不存在于移动体1的规定范围内的情况下(步骤S33为否),进入步骤S40的处理。
步骤S34:处理器13判定其他移动体2滞留在移动体1的规定范围内的时间是否为3秒以上并且其他移动体2是否正在进行蛇行行动。处理器13在判定为车辆滞留时间为3秒以上并且其他移动体2正在进行蛇行行动的情况下(步骤S34为是),进入步骤S35的处理。处理器13在判定为车辆滞留时间不是3秒以上并且其他移动体2未进行蛇行行动的情况下(步骤S34为否),进入步骤S40的处理。处理器13例如基于其他移动体2的蛇行的振幅为规定振幅以上、其他移动体2的蛇行的周期包含于规定周期等,来判定其他移动体2是否正在进行蛇行行动。
步骤S35:处理器13判定第三路怒判定标志是“无”的状态,还是“临时确定”的状态,还是“确定”的状态。处理器13在判定为第三路怒判定标志是“确定”的状态的情况下(步骤S35为“确定”),进入步骤S37的处理。处理器13在判定为第三路怒判定标志是判定状态的“临时确定”的情况下(步骤S35为“临时确定”),进入步骤S36的处理。处理器13在判定为第三路怒判定标志是判定状态的“无”的状态的情况下(步骤S35为“无”),进入步骤S38的处理。
步骤S36:处理器13将第三路怒判定标志从“临时确定”的状态切换为“确定”的状态。
步骤S37:处理器13将指示移动体1的举动(第二举动)的信息经由通信接口12向移动体1输出,并将危险回避行动指示向移动体1输出。
步骤S38:处理器13将第三路怒判定标志从“无”的状态切换为“临时确定”的状态。
步骤S39:处理器13将指示移动体1的举动(第三举动)的信息经由通信接口12向移动体1输出,并将行动指示向移动体1输出。
步骤S40:处理器13将第三路怒判定标志设为“无”的状态。即,处理器13在推定为其他移动体2的驾驶员不具有想要进行路怒驾驶的意图,继续移动体1的全自动驾驶。
〔第四路怒驾驶判定处理〕
图13是表示第四路怒驾驶判定处理的一例的流程图。第四路怒驾驶判定处理由搭载于图像处理装置10的处理器13执行。
步骤S41:处理器13从搭载于移动体1的车速传感器获取移动体1的车速。
步骤S42:处理器13基于表3计算出移动体1与其他移动体2的适当的车间距离。即,处理器13根据移动体1的车速,来决定安全的车间距离、危险的车间距离。
步骤S43:处理器13基于对移动体1的周边进行拍摄而得到的周边影像来判定其他移动体2是否存在于移动体1的规定范围内。处理器13在判定为其他移动体2存在于移动体1的规定范围内的情况下(步骤S43为是),进入步骤S44的处理。处理器13在判定为其他移动体2不存在于移动体1的规定范围内的情况下(步骤S43为否),进入步骤S50的处理。
步骤S44:处理器13判定其他移动体2滞留在移动体1的规定范围内的时间是否为3秒以上并且其他移动体2是否正在进行超车行动。处理器13在判定为车辆滞留时间为3秒以上并且其他移动体2正在进行超车行动的情况(步骤S44为是),进入步骤S45的处理。处理器13在判定为车辆滞留时间不是3秒以上并且其他移动体2未进行超车行动的情况下(步骤S44为否),进入步骤S50的处理。处理器13例如基于其他移动体2在移动体1的后方闪烁前灯、或者其他移动体2在移动体1的后方以高亮度的状态点亮前灯等,来判定其他移动体2是否正在进行蛇行行动。
步骤S45:处理器13判定第四路怒判定标志是“无”的状态,还是“临时确定”的状态,还是“确定”的状态。处理器13在判定为第四路怒判定标志是“确定”的状态的情况下(步骤S45为“确定”),进入步骤S47的处理。处理器13在判定为第四路怒判定标志是判定状态的“临时确定”的情况下(步骤S45为“临时确定”),进入步骤S46的处理。处理器13在判定为第四路怒判定标志是判定状态的“无”的状态的情况下(步骤S45为“无”)下,进入步骤S48的处理。
步骤S46:处理器13将第四路怒判定标志从“临时确定”的状态切换为“确定”的状态。
步骤S47:处理器13将指示移动体1的举动(第二举动)的信息经由通信接口12向移动体1输出,并将危险回避行动指示向移动体1输出。
步骤S48:处理器13将第四路怒判定标志从“无”的状态切换为“临时确定”的状态。
步骤S49:处理器13将指示移动体1的举动(第四举动)的信息经由通信接口12向移动体1输出,并将行动指示向移动体1输出。
步骤S50:处理器13将第四路怒判定标志设为“无”的状态。即,处理器13推定为其他移动体2的驾驶员不具有想要进行路怒驾驶的意图,使移动体1的全自动驾驶继续。
〔第五路怒驾驶判定处理〕
图14是表示第五路怒驾驶判定处理的一例的流程图。第五路怒驾驶判定处理由搭载于图像处理装置10的处理器13执行。
步骤S51:处理器13从搭载于移动体1的车速传感器获取移动体1的车速。
步骤S52:处理器13基于表3计算出移动体1与其他移动体2的适当的车间距离。即,处理器13根据移动体1的车速,来决定安全的车间距离、危险的车间距离。
步骤S53:处理器13基于对移动体1的周边进行拍摄而得到的周边影像来判定其他移动体2是否存在于移动体1的规定范围内。处理器13在判定为其他移动体2存在于移动体1的规定范围内的情况下(步骤S53为是),进入步骤S54的处理。处理器13在判定为其他移动体2不存在于移动体1的规定范围内的情况下(步骤S53为否),进入步骤S60的处理。
步骤S54:处理器13判定其他移动体2滞留在移动体1的规定范围内的时间是否为3秒以上并且移动体1变更车道之后其他移动体2是否还继续紧贴以及追赶。处理器13在判定为其他移动体2滞留在移动体1的规定范围内的时间为3秒以上并且移动体1变更车道之后其他移动体2还继续紧贴以及追赶的情况下(步骤S54为是),进入步骤S55的处理。处理器13在判定为其他移动体2滞留在移动体1的规定范围内的时间不是3秒以上并且在移动体1变更车道之后其他移动体2没有继续紧贴以及追赶的情况下(步骤S54为否),进入步骤S60的处理。
步骤S55:处理器13判定第五路怒判定标志是“无”的状态,还是“临时确定”的状态,还是“确定”的状态。处理器13在判定为第五路怒判定标志是“确定”的状态的情况下(步骤S55是“确定”),进入步骤S57的处理。处理器13在判定为第五路怒判定标志是判定状态的“临时确定”的情况下(步骤S55为“临时确定”),进入步骤S56的处理。处理器13在判定为第五路怒判定标志是判定状态的“无”的状态的情况下(步骤S55为“无”),进入步骤S18的处理。
步骤S56:处理器13将第五路怒判定标志从“临时确定”的状态切换至“确定”的状态。
步骤S57:处理器13将指示移动体1的举动(第二举动)的信息经由通信接口12向移动体1输出,并将危险回避行动指示向移动体1输出。
步骤S58:处理器13将第五路怒判定标志从“无”的状态切换至“临时确定”的状态。
步骤S59:处理器13将指示移动体1的举动(第五举动)的信息经由通信接口12向移动体1输出,并将行动指示向移动体1输出。
步骤S60:处理器13将第五路怒判定标志设为“无”的状态。即,处理器13推定为其他移动体2的驾驶员不具有想要进行路怒驾驶的意图,继续移动体1的全自动驾驶。
〔第六路怒驾驶判定处理〕
图15是表示第六路怒驾驶判定处理的一例的流程图。第六路怒驾驶判定处理由搭载于图像处理装置10的处理器13执行。
步骤S61:处理器13从搭载于移动体1的车速传感器获取移动体1的车速。
步骤S62:处理器13基于表3计算出移动体1与其他移动体2的适当的车间距离。即,处理器13根据移动体1的车速,来决定安全的车间距离、危险的车间距离。
步骤S63:处理器13基于对移动体1的周边进行拍摄而得到的周边影像来判定其他移动体2是否存在于移动体1的规定范围内。处理器13在判定为其他移动体2存在于移动体1的规定范围内的情况下(步骤S63为是),进入步骤S64的处理。处理器13在判定为其他移动体2不存在于移动体1的规定范围内的情况下(步骤S63为否),进入步骤S70的处理。
步骤S64:处理器13判定其他移动体2滞留在移动体1的规定范围内的时间是否为3秒以上。处理器13在判定为车辆滞留时间为3秒以上的情况下(步骤S64为是),进入步骤S65的处理。处理器13在判定为车辆滞留时间少于3秒的情况下(步骤S64为否),进入步骤S70的处理。
步骤S65:处理器13判定第六路怒判定标志是“无”的状态,还是“临时确定”的状态,还是“确定”的状态。处理器13在判定为第六路怒判定标志是“确定”的状态的情况下(步骤S65为“确定”),进入步骤S67的处理。处理器13在判定为第六路怒判定标志是判定状态的“临时确定”的情况下(步骤S65为“临时确定”),进入步骤S66的处理。处理器13在判定为第六路怒判定标志是判定状态的“无”的状态的情况下(步骤S65为“无”),进入步骤S68的处理。
步骤S66:处理器13将第六路怒判定标志从“临时确定”的状态切换为“确定”的状态。
步骤S67:处理器13将指示移动体1的举动(第二举动)的信息经由通信接口12向移动体1输出,并将危险回避行动指示向移动体1输出。
步骤S68:处理器13将第六路怒判定标志从“无”的状态切换为“临时确定”的状态。
步骤S69:处理器13将指示移动体1的举动(第六举动)的信息经由通信接口12向移动体1输出,并将行动指示向移动体1输出。
步骤S70:处理器13将第六路怒判定标志设为“无”的状态。即,处理器13判定为其他移动体2的驾驶员不具有想要进行路怒驾驶的意图,使移动体1的全自动驾驶继续。
如上所述,根据本实施方式的图像处理方法,不是只通过其他移动体2的第一状态来判定其他移动体2相对于移动体1是否正在进行路怒驾驶,还考虑移动体1的第一举动后的其他移动体2的第二状态,判定其他移动体2相对于移动体1是否正在进行路怒驾驶。由此,能够抑制路怒驾驶的错误判定并减少在移动体1与其他移动体2之间产生无意义的争执的可能性,能够实现交通的顺畅化。
<变形例>
在本实施方式中,作为移动体1的第一举动,举例说明了以法定速度的继续行驶、变更车道、为了对其他移动体唤起注意的鸣动喇叭、向最近的便利店的避让、向最近的服务区或者停车区的避让等,但不限于此。移动体1的第一举动也可以是将这些动作适当地组合后的举动。在移动体1具备声音输出功能的情况下,对于移动体1的第一举动而言也可以包括声音输出。在移动体1具备向地面等的投影功能的情况下,在移动体1的第一举动中也可以包括向人行道等投影信息等规定的像。
在本实施方式中,作为移动体1的第二举动,举例说明了报警、停止、减速、向最近的便利店的避让、向最近的服务区或停车区的避让、向行车记录仪的记录、将周边影像上传至规定的网络、显示其他移动体正在进行危险驾驶等,但并不限于此。在移动体1具备声音输出功能的情况下,对于移动体1的第二举动而言也可以包括声音输出。在移动体1具备向地面等的投影功能的情况下,在移动体1的第二举动中也可以包括向人行道等投影信息等规定的像。
在本实施方式中,作为移动体1的第三举动,举例说明了报警、停止、向最近的便利店的避让、向最近的服务区或停车区的避让、或者停止后的锁车门等,但不限于此。在移动体1具备声音输出功能的情况下,对于移动体1的第三举动而言也可以包括声音输出。在移动体1具备向地面等的投影功能的情况下,对于移动体1的第三举动而言也可以包括向人行道等投影信息等的规定的像。
例如,处理器13在行驶车道的端部减速而继续行驶,逐渐地在远离行驶车道的路肩停车等,这样地,依次进行避开其他移动体2的状态的动作,也可以针对每个动作来判定其他移动体2是否正在进行危险驾驶。例如,处理器13即使以规定次数重复进行第一举动、第二举动、第三举动,其他移动体2也未停止危险驾驶的情况下,可以解除移动体1的全自动驾驶。
在本实施方式中,通过搭载于移动体1的图像处理装置10检测来自周边影像的其他移动体2的第一状态、第二状态、以及第三状态,举例说明了基于其他移动体2的第一状态决定的第一举动、基于其他移动体2的第二状态决定的第二举动、基于其他移动体2的第三状态决定的第三举动等,但不限于此。例如,也可以具有网络上的服务器等的主要处理器13所具备的功能,检测来自周边影像的其他移动体2的第一状态、第二状态、以及第三状态,基于其他移动体2的第一状态决定的第一举动、基于其他移动体2的第二状态决定的第二举动、基于其他移动体2的第三状态决定的第三举动等。在该情况下,移动体1能够经由网络与服务器通信,从移动体1将周边影像向服务器发送。服务器根据从移动体1获取到的周边影像检测其他移动体2的第一状态、第二状态、以及第三状态,或者进行基于其他移动体2的第一状态决定的第一举动、基于其他移动体2决定的第二状态的第二举动、基于其他移动体2的第三状态决定的第三举动等,将指示所决定的举动的信息经由网络向移动体1发送。
在本实施方式中,举例说明了路怒判定状态标志具有“无”的状态、“临时确定”的状态、“确定”的状态这三种状态的情况,但路怒判定状态标志并不限定于此。在本实施方式中,举例说明了使用路怒判定状态标志,进行路怒驾驶判定处理的情况,但通过公知的算法也能够进行路怒驾驶判定处理。
在本实施方式中,举例说明了处理器基于通过拍摄部11拍摄到的周边影像来检测其他移动体2的状态的情况,但并不限定于此。处理器也可以基于搭载于移动体1的各种传感器来检测其他移动体2的状态。例如,处理器也可以通过搭载于移动体1的测距传感器来检测移动体1与其他移动体2的车间距离。例如,处理器也可以通过搭载于移动体1的照度传感器来检测基于其他移动体2的闪烁前灯。
在本实施方式中,“第一”、“第二”、“第三”、“第四”、“第五”、以及“第六”等的记述是用于区分该结构的识别符。利用本公开中的“第一”以及“第二”等记述所区分的结构能够交换该结构中的编号。例如,第一路怒驾驶能够与第二路怒驾驶交换作为识别符的“第一”和“第二”。第二路怒驾驶能够与第三路怒驾驶交换作为识别符的“第二”和“第三”。第三路怒驾驶能够与第四路怒驾驶交换作为识别符的“第三”和“第四”。第四路怒驾驶能够与第五路怒驾驶交换作为识别符的“第四”和“第五”。第五路怒驾驶能够与第六路怒驾驶交换作为识别符的“第五”和“第六”。识别符的交换同时进行。识别符的交换之后也能够区分该结构。也可以删除识别符。删除了识别符的结构用附图标记进行区分。仅基于本公开中的“第一”、“第二”、“第三”、“第四”、“第五”、以及“第六”等识别符的记述,并不能用于解释该结构的顺序、成为存在小的编号的识别符的依据。
基于附图和实施例对本公开的一个实施方式进行了说明,需要注意的是,本领域技术人员容易基于本公开进行各种变形和修正。因此,需要注意这些变形和修正包含在本公开的范围内。
附图标记说明
1 移动体
1A 拍摄装置
2 其他移动体
10 图像处理装置
11 拍摄部(输入部)
12 通信接口(输出部)
13 处理器
14 存储部
Claims (13)
1.一种图像处理装置,其中,具有:
处理器,根据对移动体的周边进行拍摄而得到的周边影像来检测其他移动体的状态,基于该检测到的其他移动体的状态,进行决定举动的举动决定处理,
所述图像处理装置的特征在于,
作为所述举动决定处理,所述处理器在所述其他移动体在第一状态持续第一时间以上的情况下,不判定所述其他移动体进行危险驾驶而决定进行第一举动,在决定进行所述第一举动后所述其他移动体为第二状态的情况下,判定为所述其他移动体正在进行危险驾驶,决定进行第二举动,
所述第二状态是在判定所述其他移动体处于所述第一状态后所述第一状态持续第二时间以上的状态。
2.如权利要求1所述的图像处理装置,其中,
所述第一状态是在安装有所述图像处理装置的移动体的后方的距离范围内检测到所述其他移动体的状态,
所述第二举动是向车辆记录仪记录映出所述其他移动体的影像。
3.如权利要求1所述的图像处理装置,其中,
所述移动体还具有麦克风,
所述第一状态是从所述麦克风检测到的所述其他移动体对所述移动体用喇叭进行威吓的状态。
4.如权利要求1或2所述的图像处理装置,其中,
所述其他移动体的所述第二状态包括重复所述第一状态。
5.如权利要求1所述的图像处理装置,其中,
所述第一举动包括所述移动体以法定速度继续行驶、所述移动体变更车道、所述移动体鸣动喇叭、以及所述移动体向避让场所避让中的任一种。
6.如权利要求1所述的图像处理装置,其中,
所述第二举动包括声音输出、将所述周边影像向规定的网络上传、以及显示所述其他移动体正在进行危险驾驶中的任一种。
7.如权利要求1所述的图像处理装置,其中,
所述处理器在基于决定进行所述第二举动后的所述其他移动体的第三状态,判定为所述其他移动体正在进行危险驾驶的情况下,决定进行第三举动。
8.如权利要求7所述的图像处理装置,其中,
所述第三状态包括继续所述第一状态、以及重复所述第一状态中的任一种。
9.如权利要求7或8所述的图像处理装置,其中,
所述第三举动包括报警。
10.如权利要求1所述的图像处理装置,其中,
所述移动体还具有车速传感器、测距传感器、麦克风、雷达、声呐、激光中的任一个。
11.一种拍摄装置,其中,
具有权利要求1所述的图像处理装置、以及获取所述周边影像的输入部。
12.一种移动体,其中,
搭载有权利要求11所述的拍摄装置。
13.一种图像处理方法,其中,
图像处理装置检测根据对移动体的周边进行拍摄得到的周边影像而检测到的其他移动体的状态,基于该检测到的其他移动体的第一状态,决定第一举动,
所述图像处理装置在所述其他移动体在第一状态持续第一时间以上的情况下,决定不判定所述其他移动体进行危险驾驶而进行第一举动,在决定进行所述第一举动后所述其他移动体为第二状态的情况下,判定为所述其他移动体正在进行危险驾驶,决定进行第二举动,
所述第二状态是在判定所述其他移动体处于所述第一状态后所述第一状态持续第二时间以上的状态。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018-222847 | 2018-11-28 | ||
JP2018222847A JP7163152B2 (ja) | 2018-11-28 | 2018-11-28 | 画像処理装置、撮像装置、移動体及び画像処理方法 |
PCT/JP2019/043135 WO2020110611A1 (ja) | 2018-11-28 | 2019-11-01 | 画像処理装置、撮像装置、移動体及び画像処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113165575A CN113165575A (zh) | 2021-07-23 |
CN113165575B true CN113165575B (zh) | 2024-06-21 |
Family
ID=70852372
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980077158.XA Active CN113165575B (zh) | 2018-11-28 | 2019-11-01 | 图像处理装置、拍摄装置、移动体、以及图像处理方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220024452A1 (zh) |
EP (1) | EP3888977A4 (zh) |
JP (1) | JP7163152B2 (zh) |
CN (1) | CN113165575B (zh) |
WO (1) | WO2020110611A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2022038741A1 (zh) * | 2020-08-20 | 2022-02-24 | ||
JP7439696B2 (ja) | 2020-08-25 | 2024-02-28 | スズキ株式会社 | 運転評価装置 |
JP7174801B2 (ja) * | 2020-11-10 | 2022-11-17 | 神達數位股▲ふん▼有限公司 | 車両の危険な走行状態を検出する方法及びシステム、並びにその方法を実行するためのプログラムを格納した非一時的なコンピュータ可読媒体 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010271906A (ja) * | 2009-05-21 | 2010-12-02 | Kenwood Corp | 車両の運転支援装置 |
JP2018112892A (ja) * | 2017-01-11 | 2018-07-19 | スズキ株式会社 | 運転支援装置 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06162400A (ja) * | 1992-11-18 | 1994-06-10 | Nissan Motor Co Ltd | 先行車両接近警報装置 |
JP4528999B2 (ja) * | 2003-12-16 | 2010-08-25 | 富士通テン株式会社 | 追突防止装置 |
JP2007072641A (ja) * | 2005-09-06 | 2007-03-22 | Equos Research Co Ltd | 危険車両検出装置 |
JP2008243065A (ja) | 2007-03-28 | 2008-10-09 | Fujitsu Ten Ltd | 運転支援装置および運転支援方法 |
JP5499277B2 (ja) * | 2008-01-22 | 2014-05-21 | 株式会社国際電気通信基礎技術研究所 | 危険運転予防意識判定システムおよび危険運転予防意識判定方法 |
JP5064257B2 (ja) * | 2008-01-31 | 2012-10-31 | 矢崎総業株式会社 | 車両用周辺状況記録装置 |
JP5316640B2 (ja) * | 2009-06-17 | 2013-10-16 | トヨタ自動車株式会社 | 走行支援装置 |
US8457827B1 (en) * | 2012-03-15 | 2013-06-04 | Google Inc. | Modifying behavior of autonomous vehicle based on predicted behavior of other vehicles |
US10347127B2 (en) * | 2013-02-21 | 2019-07-09 | Waymo Llc | Driving mode adjustment |
US20150307025A1 (en) * | 2014-04-24 | 2015-10-29 | SAVTi | Identifying and Responding to Tailgating Vehicles |
JP5962706B2 (ja) * | 2014-06-04 | 2016-08-03 | トヨタ自動車株式会社 | 運転支援装置 |
JP6090381B2 (ja) * | 2015-07-29 | 2017-03-08 | 横浜ゴム株式会社 | 衝突防止システム |
US9944291B2 (en) * | 2015-10-27 | 2018-04-17 | International Business Machines Corporation | Controlling driving modes of self-driving vehicles |
WO2017126012A1 (ja) * | 2016-01-18 | 2017-07-27 | 三菱電機株式会社 | 運転支援装置、運転支援方法及び運転支援プログラム |
CN108288312A (zh) * | 2017-03-06 | 2018-07-17 | 腾讯科技(深圳)有限公司 | 驾驶行为确定方法及装置 |
-
2018
- 2018-11-28 JP JP2018222847A patent/JP7163152B2/ja active Active
-
2019
- 2019-11-01 EP EP19889363.8A patent/EP3888977A4/en active Pending
- 2019-11-01 CN CN201980077158.XA patent/CN113165575B/zh active Active
- 2019-11-01 WO PCT/JP2019/043135 patent/WO2020110611A1/ja unknown
- 2019-11-01 US US17/297,293 patent/US20220024452A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010271906A (ja) * | 2009-05-21 | 2010-12-02 | Kenwood Corp | 車両の運転支援装置 |
JP2018112892A (ja) * | 2017-01-11 | 2018-07-19 | スズキ株式会社 | 運転支援装置 |
Also Published As
Publication number | Publication date |
---|---|
US20220024452A1 (en) | 2022-01-27 |
WO2020110611A1 (ja) | 2020-06-04 |
EP3888977A1 (en) | 2021-10-06 |
JP7163152B2 (ja) | 2022-10-31 |
JP2020087140A (ja) | 2020-06-04 |
EP3888977A4 (en) | 2022-07-27 |
CN113165575A (zh) | 2021-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113165575B (zh) | 图像处理装置、拍摄装置、移动体、以及图像处理方法 | |
JP7108856B2 (ja) | 運転制御システムおよび運転制御方法 | |
JP7014822B2 (ja) | 画像処理装置、撮像装置、移動体および画像処理方法 | |
JP7251120B2 (ja) | 情報提供システム、サーバ、車載装置、プログラム及び情報提供方法 | |
JP2017005678A (ja) | 車載カメラ・システム並びに画像処理装置 | |
CN113246993B (zh) | 驾驶支援*** | |
AU2015262344A1 (en) | Processing apparatus, processing system, processing program, and processing method | |
JP6103265B2 (ja) | 車両用歩行者画像取得装置 | |
JP6731135B2 (ja) | センシングシステム及び運転支援システム | |
KR102418051B1 (ko) | 차선별 교통상황 판단 장치, 시스템, 및 방법 | |
JP2008225822A (ja) | 道路区画線検出装置 | |
JP7302584B2 (ja) | 速度制御装置 | |
JP6899673B2 (ja) | 物体距離検出装置 | |
JP6828316B2 (ja) | 合流支援装置 | |
JP7245653B2 (ja) | 信号機認識方法及び信号機認識装置 | |
JP2013250694A (ja) | 画像処理装置 | |
JP6891082B2 (ja) | 物体距離検出装置 | |
WO2018047393A1 (ja) | 映像出力システム | |
JP7292484B2 (ja) | 画像処理装置、撮像装置及び移動体 | |
JP7511727B2 (ja) | 画像処理装置、撮像装置、移動体、および画像処理方法 | |
JP2020009386A (ja) | 周辺認識装置及び車載カメラシステム | |
JP6769381B2 (ja) | 車両データの収集システム | |
JP2006134232A (ja) | 車両用立体物検出装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |