CN112650212A - 远程自动驾驶车辆及车辆远程指示*** - Google Patents
远程自动驾驶车辆及车辆远程指示*** Download PDFInfo
- Publication number
- CN112650212A CN112650212A CN202011045537.1A CN202011045537A CN112650212A CN 112650212 A CN112650212 A CN 112650212A CN 202011045537 A CN202011045537 A CN 202011045537A CN 112650212 A CN112650212 A CN 112650212A
- Authority
- CN
- China
- Prior art keywords
- remote
- sensor
- information
- autonomous vehicle
- data amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 description 48
- 238000000034 method Methods 0.000 description 22
- 238000004891 communication Methods 0.000 description 19
- 230000001133 acceleration Effects 0.000 description 13
- 230000005540 biological transmission Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000035945 sensitivity Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 238000010276 construction Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0022—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the communication link
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0287—Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
- G05D1/0291—Fleet control
- G05D1/0297—Fleet control by controlling means in a control room
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0027—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement involving a plurality of vehicles, e.g. fleet or convoy travelling
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0278—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Traffic Control Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
一种远程自动驾驶车辆,将由传感器检测到的传感器信息发送给远程指示装置,并根据来自远程指令者的远程指示而行驶。远程自动驾驶车辆具有:传感器类型确定部,其根据外部环境或地图信息来确定传感器信息将被发送给远程指示装置的传感器的类型;以及传感器信息发送部,其将确定的类型的传感器检测到的传感器信息发送给远程指示装置。
Description
技术领域
本公开涉及一种根据来自远程指令者的远程指示而行驶的远程自动驾驶车辆及远程指示***。
背景技术
例如,在日本特开2018-180771号公报中记载了一种远程自动驾驶车辆,其从远程自动驾驶车辆向远程指示装置发送传感器信息,并根据通过远程指示装置发出的来自远程指令者的远程指示而行驶。
该远程自动驾驶车辆具有多个传感器,车速越快,则向远程指示装置发送的传感器信息的数据量越大。接着,在远程指示装置无法接收到被发送的传感器信息的情况下(产生了通信延迟的情况下),减慢远程自动驾驶车辆的车速。
在此,例如,在具有多个传感器的远程自动驾驶车辆中,有时多个传感器中的特定的传感器的传感器信息本身在进行远程指示时是不需要的。如果将该不需要的传感器信息发送给远程指令者,则发送数据量增多,因此存在数据的发送花费时间,远程指令者无法进行恰当的判断等问题。
因此,在本技术领域中,要求向远程指令者提供对进行远程指示的判断而言恰当的类型的传感器信息,并且削减从远程自动驾驶车辆发送给远程指示装置的传感器信息的数据量。
发明内容
本公开为一种远程自动驾驶车辆,具有检测车辆周围的多个传感器,所述远程自动驾驶车辆将由所述传感器检测到的传感器信息发送给远程指示装置,并根据通过所述远程指示装置发出的来自远程指令者的远程指示而行驶,所述远程自动驾驶车辆具有:传感器类型确定部,其根据外部环境或地图信息来确定传感器信息将被发送给远程指示装置的传感器的类型;以及传感器信息发送部,其将由传感器类型确定部确定的类型的传感器检测到的传感器信息发送给远程指示装置。
根据该远程自动驾驶车辆,基于外部环境或地图信息,确定传感器信息将被发送给远程指示装置的传感器的类型,并发送由确定的类型的传感器检测到的传感器信息。即,在该远程自动驾驶车辆中,发送根据外部环境或地图信息确定的类型的传感器的传感器信息,不发送其它类型的传感器的传感器信息。由此,远程指令者能够基于根据外部环境或地图信息确定的类型的传感器的传感器信息,对远程自动驾驶车辆恰当地发出远程指示。如上所述,在该远程自动驾驶车辆中,能够向远程指令者提供对进行远程指示的判断而言恰当的类型的传感器信息,并且削减从远程自动驾驶车辆向远程指示装置发送的传感器信息的数据量。
远程自动驾驶车辆可以还具有数据量削减部,所述数据量削减部削减由传感器类型确定部确定的类型的传感器检测到的传感器信息的数据量,在由传感器类型确定部确定的类型的传感器检测到的传感器信息的数据量为预先设定的数据量阈值以上的情况下,数据量削减部对数据量进行削减,传感器信息发送部将由数据量削减部削减了数据量的传感器信息发送给远程指示装置。
在该情况下,远程自动驾驶车辆能够在检测到的传感器信息的数据量为数据量阈值以上的情况下,削减数据量来进行发送。由此,远程自动驾驶车辆能够进一步削减向远程指示装置发送的数据量。
在远程自动驾驶车辆中,数据量削减部也可以基于地图信息限定由传感器类型确定部确定的类型的传感器检测到的传感器信息之中的发送给远程指示装置的视场角,从而削减传感器信息的数据量。
在该情况下,远程自动驾驶车辆能够基于根据地图信息限定的视场角的传感器信息,使远程指令者发出恰当的远程指示,并且进一步削减向远程指示装置发送的传感器信息的数据量。
本公开的车辆远程指示***具有上述的远程自动驾驶车辆、和远程指令者发出与远程自动驾驶车辆的行驶相关的远程指示的远程指示装置。
根据该车辆远程指示***,根据外部环境或地图信息,确定传感器信息将被发送给远程指示装置的传感器的类型,并将由确定的类型的传感器检测到的传感器信息发送给远程指示装置。即,在该车辆远程指示***中,将根据外部环境或地图信息确定的类型的传感器的传感器信息发送给远程指示装置,而不发送其它类型的传感器的传感器信息。此外,在该车辆远程指示***中,在确定传感器的类型时,根据外部环境或地图信息来进行该确定。由此,远程指令者能够基于根据外部环境或地图信息确定的类型的传感器的传感器信息,对远程自动驾驶车辆恰当地发出远程指示。如上所述,在车辆远程指示***中,能够向远程指令者提供对进行远程指示的判断而言恰当的类型的传感器信息,并且削减从远程自动驾驶车辆发送给远程指示装置的传感器信息的数据量。
根据本公开,向远程指令者提供对进行远程指示的判断而言恰当的类型的传感器信息,并且削减从远程自动驾驶车辆发送给远程指示装置的传感器信息的数据量。
附图说明
图1是表示实施方式的车辆远程指示***的整体情况的一个例子的图。
图2是表示自动驾驶车辆的构成的一个例子的框图。
图3是表示外部传感器具有的传感器的框图。
图4是表示自动驾驶车辆在交叉路口右转的状况的概要图。
图5是表示远程指示服务器的硬件构成的一个例子的框图。
图6是表示远程指示装置的构成的一个例子的框图。
图7是表示自动驾驶ECU生成行驶状况信息并发送的处理的流程的流程图。
具体实施方式
以下,参照附图,对本发明的实施方式进行说明。另外,在以下的说明中,对相同或等同的要素标注相同的标号,并省略重复的说明。
图1是表示实施方式的车辆远程指示***的整体情况的一个例子的图。图1所示的车辆远程指示***100是根据检测远程自动驾驶车辆2的外部环境的外部传感器22的检测信息,远程指令者R发出与远程自动驾驶车辆2的行驶相关的远程指示的***。远程指示指的是与远程自动驾驶车辆2的行驶相关的远程指令者R的指示。
远程指示包含远程自动驾驶车辆2的行进的指示及远程自动驾驶车辆2的停止的指示。远程指示也可以包含远程自动驾驶车辆2的变道的指示。另外,远程指示也可以包含针对前方的障碍物的偏移躲避的指示、对前车超车的指示、紧急避让的指示等。
(车辆远程指示***的构成)
如图1所示,车辆远程指示***100具有远程指令者R输入远程指示的远程指示装置1。远程指示装置1经由网络N与多辆远程自动驾驶车辆2可通信地连接。网络N是无线通信网络。从远程自动驾驶车辆2向远程指示装置1发送各种信息。
在车辆远程指示***100中,例如根据来自远程自动驾驶车辆2的远程指示请求,向远程指令者R请求远程指示的输入。远程指令者R向远程指示装置1的指令者接口3输入远程指示。远程指示装置1通过网络N向远程自动驾驶车辆2发送远程指示。远程自动驾驶车辆2根据远程指示自动地行驶。
另外,在车辆远程指示***100中,远程指令者R的数量可以是一人,也可以为两人以上。能够与车辆远程指示***100进行通信的远程自动驾驶车辆2的台数也没有特别限定。可以是多个远程指令者R交替对一台远程自动驾驶车辆2发出远程指示的方式,也可以是一个远程指令者R对两台以上的远程自动驾驶车辆2发出远程指示的方式。
(自动驾驶车辆的构成)
首先,对远程自动驾驶车辆2的构成的一个例子进行说明。图2是表示远程自动驾驶车辆2的构成的一个例子的框图。如图2所示,作为一个例子,远程自动驾驶车辆2具有自动驾驶ECU 20。自动驾驶ECU 20是具有CPU(Central Processing Unit:中央处理单元)、ROM(Read Only Memory:只读存储器)、RAM(Random Access Memory:随机存取存储器)等的电子控制单元。在自动驾驶ECU 20中,例如,将记录在ROM中的程序加载到RAM,并由CPU执行加载到RAM的程序,由此实现各种功能。自动驾驶ECU 20也可以由多个电子单元构成。
自动驾驶ECU 20与GPS(Global Positioning System:全球定位***)接收部21、外部传感器22、内部传感器23、地图数据库24、通信部25以及致动器26连接。
GPS接收部21通过从3个以上的GPS卫星接收信号,测定远程自动驾驶车辆2的位置(例如远程自动驾驶车辆2的纬度及经度)。GPS接收部21将测定出的远程自动驾驶车辆2的位置信息发送给自动驾驶ECU 20。
外部传感器22是检测远程自动驾驶车辆2的周围的外部环境的车载传感器。外部传感器22将检测到的检测信息(传感器信息)发送给自动驾驶ECU 20。如图3所示,外部传感器22包括检测外部环境的多个传感器22a。
具体地说,外部传感器22至少包括照相机作为传感器22a。照相机是拍摄远程自动驾驶车辆2的外部环境的拍摄设备。照相机例如设置在远程自动驾驶车辆2的前挡风玻璃的内侧,并拍摄车辆前方。照相机将与远程自动驾驶车辆2的外部环境相关的图像信息(传感器信息)发送给自动驾驶ECU 20。照相机可以是单眼照相机,也可以是立体照相机。另外,照相机可以是使用可见光的照相机,也可以是红外线照相机。另外,设置有多台照相机,除了拍摄远程自动驾驶车辆2的前方之外,还拍摄左右的侧方以及后方等远程自动驾驶车辆2的周围的全部或至少一部分。
外部传感器22也可以包括雷达传感器作为传感器22a。雷达传感器是利用电波(例如毫米波)或光来检测远程自动驾驶车辆2的周边的物体的检测设备。雷达传感器例如包括雷达(毫米波雷达)或激光雷达(LIDAR:激光检测和测距)。雷达传感器通过将电波或光发送给远程自动驾驶车辆2的周边,并接收由物体反射的电波或光来检测物体。雷达传感器将检测到的物体信息(传感器信息)发送给自动驾驶ECU 20。物体除了包括护栏、建筑物等固定物体之外,还包括行人、自行车、其他车辆等移动物体。设置有多台雷达传感器,将远程自动驾驶车辆2的周围的全部或者至少一部分作为检测对象。
外部传感器22也可以包含检测设定值互不相同的多个传感器作为传感器22a。检测设定值是指在传感器进行检测时设定的各种设定值。例如,外部传感器22也可以包含检测设定值互不相同的多个照相机。该照相机的检测设定值例如可以是ISO灵敏度、F值、曝光时间之中的至少任意项目。另外,外部传感器22也可以包括检测设定值能够改变的传感器作为传感器22a。例如,外部传感器22也可以包括检测设定值能够改变的照相机。
这样,外部传感器22包括类型互不相同的多个传感器22a。在本实施方式中,传感器22a的类型不同指的是例如照相机与激光雷达那样,检测方法(检测方式)本身不同的传感器彼此的类型不同。此外,在本实施方式中,传感器22a的类型不同指的是,例如使用可见光的照相机与红外线照相机那样,虽然检测方法本身相同或类似,但使用的波长等配置的一部分不同的传感器彼此也为类型不同。此外,在本实施方式中,传感器22a的类型不同指的是例如虽然检测方法本身相同,但是如ISO灵敏度等检测设定值互不相同的照相机那样,检测设定值不同的传感器彼此也为类型不同。另外,在本实施方式中,传感器22a的类型不同指的是例如像图像数据与点云数据那样,得到的数据的类型不同的传感器彼此的类型不同。此外,在本实施方式中,传感器22a的类型不同指的是例如图像质量不同的传感器彼此的类型不同。
内部传感器23是检测远程自动驾驶车辆2的行驶状态的车载传感器。内部传感器23包括车速传感器、加速度传感器以及横摆率传感器。车速传感器是检测远程自动驾驶车辆2的速度的检测器。作为车速传感器,可以使用车轮速度传感器,该车轮速度传感器设置于远程自动驾驶车辆2的车轮或与车轮一体地旋转的驱动轴等,并检测各车轮的旋转速度。车速传感器将检测到的车速信息(车轮速度信息)发送给自动驾驶ECU 20。
加速度传感器是检测远程自动驾驶车辆2的加速度的检测器。加速度传感器例如包括检测远程自动驾驶车辆2的前后方向的加速度的前后加速度传感器,加速度传感器也可以包括检测远程自动驾驶车辆2的横向加速度传感器。加速度传感器例如将远程自动驾驶车辆2的加速度信息发送给自动驾驶ECU 20。横摆率传感器是检测远程自动驾驶车辆2的重心绕铅直轴的横摆率(旋转角速度)的检测器。作为横摆率传感器,例如可以使用陀螺仪传感器。横摆率传感器将检测到的远程自动驾驶车辆2的横摆率信息发送给自动驾驶ECU20。
地图数据库24是记录地图信息的数据库。地图数据库24例如形成在搭载于远程自动驾驶车辆2的HDD(Hard Disk Drive:硬盘驱动)等记录装置内。地图信息包括道路的位置信息、道路形状的信息(例如曲率信息)、交叉路口以及分叉口的位置信息等。地图信息也可以包含与位置信息建立关联的法定最高速度等交通管制信息。地图信息也可以包含用于获取远程自动驾驶车辆2的位置信息的物标信息。作为物标,可以使用道路标识、路面标识、信号灯、电线杆等。地图数据库24也可以构成为能够与远程自动驾驶车辆2进行通信的服务器。
通信部25是控制与远程自动驾驶车辆2的外部的无线通信的通信设备。通信部25经由网络N与远程指示装置1(远程指示服务器10)进行各种信息的发送及接收。
致动器26是用于远程自动驾驶车辆2的控制的设备。致动器26至少包括驱动致动器、制动致动器和转向致动器。驱动致动器根据来自自动驾驶ECU 20的控制信号而控制针对发动机(engine)的空气的供给量(节气门开度),并控制远程自动驾驶车辆2的驱动力。此外,在远程自动驾驶车辆2为混合动力车辆的情况下,除了针对发动机的空气的供给量之外,还向作为动力源的电机(motor)输入来自自动驾驶ECU 20的控制信号来控制该驱动力。在远程自动驾驶车辆2为电动车的情况下,向作为动力源的电机输入来自自动驾驶ECU 20的控制信号,并控制该驱动力。在这些情况下,作为动力源的电机构成致动器26。
制动致动器根据来自自动驾驶ECU 20的控制信号来控制制动***,并控制向远程自动驾驶车辆2的车轮赋予的制动力。作为制动***,例如能够使用液压制动***。转向致动器根据来自自动驾驶ECU 20的控制信号来控制电动助力转向***之中控制转向转矩的辅助电机的驱动。由此,转向致动器控制远程自动驾驶车辆2的转向转矩。
接下来,对自动驾驶ECU 20的功能构成的一个例子进行说明。自动驾驶ECU 20具有车辆位置获取部31、外部环境识别部32、行驶状态识别部33、远程指示判定部34、传感器类型确定部35、数据量削减部36、行驶状况信息发送部(传感器信息发送部)37、路线生成部38以及自动驾驶控制部39。
车辆位置获取部31根据GPS接收部21的位置信息和地图数据库24的地图信息,获取远程自动驾驶车辆2的位置信息(地图上的位置)。车辆位置获取部31也可以利用地图数据库24的地图信息包含的物标信息以及外部传感器22的检测结果,通过SLAM[Simultaneous Localization and Mapping:同步定位及绘图]技术来获取远程自动驾驶车辆2的位置信息。车辆位置获取部31也可以根据车道的划分线与远程自动驾驶车辆2的位置关系,识别远程自动驾驶车辆2相对于车道的横向位置(远程自动驾驶车辆2在车道宽度方向上的位置)并包含在位置信息中。车辆位置获取部31也可以通过其他公知的方法获取远程自动驾驶车辆2的位置信息。
外部环境识别部32根据外部传感器22的检测结果,识别远程自动驾驶车辆2的外部环境。外部环境包括周围的物体相对于远程自动驾驶车辆2的相对位置。外部环境也可以包括周围的物体相对于远程自动驾驶车辆2的相对速度和移动方向。外部环境也可以包括其他车辆、行人和自行车等物体的种类。物体的种类能够通过模式匹配等公知的方法来识别。外部环境也可以包含远程自动驾驶车辆2的周围的划分线识别(车道线识别)的结果。外部环境也可以包括信号灯的点亮状态的识别结果。外部环境识别部32例如能够根据外部传感器22的照相机的图像,识别远程自动驾驶车辆2的前方的信号灯的亮灯状态(是能够通行的亮灯状态还是禁止通行的亮灯状态等)。
外部环境识别部32识别远程自动驾驶车辆2的周围的天气作为远程自动驾驶车辆2的外部环境。例如,外部环境识别部32能够识别远程自动驾驶车辆2是否正行驶在下雨的区域或者产生雾的区域。例如,在外部传感器22具有降雨传感器的情况下,外部环境识别部32也可以根据降雨传感器的检测结果来识别远程自动驾驶车辆2是否正行驶在下雨的区域。另外,外部环境识别部32也可以从外部的气象信息中心等获取远程自动驾驶车辆2正行驶的区域的气象信息,并根据获取的信息来识别是否正下雨或正产生雾。这样,外部环境识别部32能够通过公知的各种方法来识别远程自动驾驶车辆2的周围的天气。
外部环境识别部32识别远程自动驾驶车辆2的周围的亮度作为远程自动驾驶车辆2的外部环境。例如,在外部传感器22具有照度传感器的情况下,外部环境识别部32可以根据照度传感器的检测结果来识别远程自动驾驶车辆2的周围的亮度。另外,外部环境识别部32例如也可以根据时刻来识别远程自动驾驶车辆2的周围的亮度。例如,外部环境识别部32也可以在时刻为夜间的情况下识别为周围暗,在时刻为白天的情况下识别为周围亮。
外部环境识别部32识别远程自动驾驶车辆2的周围的气温作为远程自动驾驶车辆2的外部环境。例如,在外部传感器22具有检测远程自动驾驶车辆2的周围的气温的温度传感器的情况下,外部环境识别部32也可以根据温度传感器的检测结果来识别远程自动驾驶车辆2的周围的气温。另外,外部环境识别部32也可以从外部的气象信息中心等获取远程自动驾驶车辆2正行驶的区域的气温信息,根据获取的气温信息来识别远程自动驾驶车辆2的周围的气温。像这样,外部环境识别部32能够通过公知的各种方法来识别远程自动驾驶车辆2的周围的气温。
行驶状态识别部33根据内部传感器23的检测结果,识别远程自动驾驶车辆2的行驶状态。行驶状态包括远程自动驾驶车辆2的车速、远程自动驾驶车辆2的加速度、远程自动驾驶车辆2的横摆率。具体而言,行驶状态识别部33根据车速传感器的车速信息,识别远程自动驾驶车辆2的车速。行驶状态识别部33根据加速度传感器的车速信息,识别远程自动驾驶车辆2的加速度。行驶状态识别部33根据横摆率传感器的横摆率信息,识别远程自动驾驶车辆2的朝向。
远程指示判定部34判定远程自动驾驶车辆2是否应该向远程指令者R(远程指示装置1)请求远程指示。远程指示判定部34根据车辆位置获取部31获取的远程自动驾驶车辆2的位置信息以及地图数据库24的地图信息、外部环境识别部32识别的外部环境、后述的路线生成部38生成的路线之中的至少一者,判定是否应该请求远程指示。
远程指示判定部34例如在远程自动驾驶车辆2成为远程指示对象状况的情况下,判定为应该请求远程指示。远程指示对象状况指的是作为自动驾驶车辆应该向远程指示装置1请求远程指示的状况而预先设定的状况。
远程指示对象状况例如可以包括远程自动驾驶车辆2在交叉路口处右转或左转的状况、进入带信号灯或无信号灯的交叉路口的状况、进入环岛的状况、通过人行横道的状况、存在前方的停车车辆或障碍物的状况、为了躲避施工区段而变道的状况、被请求判断针对前方障碍物的偏移躲避的状况、停止的自动驾驶车辆起步的状况、自动驾驶车辆在乘车地点或目的地停车的状况中的至少一种状况。另外,在车辆为右侧通行的国家或地域的情况下,可以代替在交叉路口右转的状况而设为在交叉路口左转的状况。
例如在成为远程自动驾驶车辆2进入交叉路口的状况或者在交叉路口右转的状况的情况下,远程指示判定部34判定为应该请求远程指示。也可以在远程自动驾驶车辆2的前方存在应该偏移躲避的障碍物的情况下,远程指示判定部34判定为应该请求远程指示。
远程指示判定部34例如能够根据远程自动驾驶车辆2的位置信息、地图信息以及目标路径,识别远程自动驾驶车辆2成为在交叉路口处右转的状况、远程自动驾驶车辆2成为进入带信号灯的交叉路口的状况、或者远程自动驾驶车辆2成为开始变道的状况。
远程指示判定部34在判定为应该请求远程指示的情况下,向远程指示服务器10请求远程指令者R的远程指示。远程指示的请求中例如包含远程自动驾驶车辆2的识别信息。另外,远程指示判定部34也可以预先留有余量地请求远程指示。远程指示判定部34也可以在作为远程指示的对象的交叉路口等与远程自动驾驶车辆2之间的距离为一定距离以下的情况下,判定为应该请求远程指示。也可以不使用距离而使用距到达为止的剩余时间。
在远程指示判定部34判定为应该请求远程指示的情况下,传感器类型确定部35根据远程自动驾驶车辆2的外部环境或地图信息,确定传感器信息将被发送给远程指示装置1的传感器22a的类型。例如,传感器类型确定部35可以根据外部环境或地图信息确定在远程指令者R发出远程指示时能够检测恰当的信息的传感器22a的类型作为传感器22a的类型。在此,在远程指令者R发出远程指示时恰当的信息也可以指远程指令者R易于识别远程自动驾驶车辆2的周围的状况的信息。
以下,对传感器类型确定部35中的确定传感器22a的类型的各种具体例子进行说明。
(降雨、雾产生时的类型设定例)
例如,从激光雷达照射的光具有也会被水反射的特征。因此,在降雨时或产生雾时,有时会在激光雷达周边产生噪声。或者,在远程自动驾驶车辆2的周围的气温为低温的情况下,发动机的排出气体在空气中凝结,从激光雷达照射的光被凝结的排出气体反射。因此,这可能导致激光雷达检测到冷凝的排气,就像存在物体一样。
因此,例如,传感器类型确定部35在降雨时或雾产生时的情况下,将传感器信息将被发送给远程指示装置1的传感器22a的类型确定为照相机。同样地,例如,在远程自动驾驶车辆2的周围为低温状态的情况下,传感器类型确定部35将传感器信息将被发送给远程指示装置1的传感器22a的类型确定为照相机。另外,传感器类型确定部35能够根据外部环境识别部32的识别结果来判定是否为降雨时、是否为雾产生时、是否为低温状态。
(夜间的情况下的类型设定例)
例如,使用可见光的照相机是对于远程指令者R对远程自动驾驶车辆2的周边环境进行识别的有效的传感器。然而,在夜间等黑暗环境中,有时无法有效地利用照相机的性能。例如,作为远程自动驾驶车辆2的前照灯照射的方向的拍摄图像,有可能能够获取至远方的图像。另一方面,例如,在交叉路口等右转的场景中的右转目的地的区域、左转的场景以及超车的场景中的后方的区域中,由于远程自动驾驶车辆2不具有照射该方向的灯,所以有可能仅能够获取暗的拍摄图像(黑的拍摄图像)。这样的拍摄图像不足以使远程指令者R进行恰当的远程指示的判断。
因此,例如,在夜间等暗的环境的情况下,传感器类型确定部35将传感器信息将被发送给远程指示装置1的传感器22a的类型确定为红外线照相机或激光雷达。另外,传感器类型确定部35能够根据外部环境识别部32的识别结果来判断是否为夜间等暗的环境。
(进入隧道的状况或出隧道的状况的情况下的类型设定例)
例如,在远程自动驾驶车辆2进入隧道时或从隧道中出来时,远程自动驾驶车辆2的前方的照度的差(动态范围)变得极大。因此,例如,在照相机的情况下,在远程自动驾驶车辆2进入隧道时,进入隧道的前方(隧道内)的部分成为黑的拍摄图像,有时无法利用该部分的信息。相反地,例如在照相机的情况下,在远程自动驾驶车辆2从隧道中出来时,从隧道中出来的前方的部分成为白的拍摄图像,有时无法利用该部分的信息。
为了在黑暗环境下也从照相机的拍摄图像获取信息,ISO灵敏度高的照相机、F值小的照相机(光圈未缩小而能够接收大量的光的照相机)、或曝光时间长的照相机是有效的。相反地,在明亮环境中有效的照相机与此相反。
因此,传感器类型确定部35判定远程自动驾驶车辆2是处于进入隧道的状况还是处于出隧道的状况。然后,传感器类型确定部35将设定有与判断结果相应的恰当的检测设定值(例如ISO灵敏度、F值、曝光时间等)的照相机确定为传感器信息将被发送给远程指示装置1的传感器22a的类型。例如,设为在外部传感器22设置了检测设定值互不相同的多个照相机。在该情况下,传感器类型确定部35将检测设定值不同的照相机之中的、设定有与判断结果相应的恰当的检测设定值(ISO灵敏度、F值、曝光时间等)的照相机确定为传感器信息将被发送给远程指示装置1的传感器22a的类型。另一方面,例如,设为在外部传感器22设置了检测设定值(例如ISO灵敏度、F值以及曝光时间等之中的至少任意项目)能够改变的照相机。在该情况下,传感器类型确定部35能够将根据判断结果而设定(切换)了的检测设定值的照相机确定为传感器信息将被发送给远程指示装置1的传感器22a的类型。
此外,如远程自动驾驶车辆2进入隧道的情况那样,有时应该将远程自动驾驶车辆2的附近和远方这双方的传感器信息提示给远程指令者R。在该情况下,远程自动驾驶车辆2的附近为照度相对高的场所,远程自动驾驶车辆2的远方为照度相对低的场所。在这样应该提示的场所的照度不同的情况下,传感器类型确定部35也可以将照度高的场所用的照相机(即使照度高也能够恰当地拍摄的照相机)和照度低的场所用的照相机(即使照度低也能够恰当地拍摄的照相机)这双方确定为传感器信息将被发送给远程指示装置1的传感器22a的类型。
另外,在根据是处于进入隧道的状况还是处于出隧道的状况来确定传感器22a的类型的情况下,也可以如上述的“夜间的情况下的类型设定例”中说明的那样,传感器类型确定部35选择激光雷达而非照相机。
此外,传感器类型确定部35例如能够根据地图数据库24的地图信息以及由车辆位置获取部31识别的远程自动驾驶车辆2的位置信息,判定远程自动驾驶车辆2是处于进入隧道的状况还是处于出隧道的状况。另外,传感器类型确定部35除了地图信息以及远程自动驾驶车辆2的位置信息以外,还可以使用后述的路线生成部38生成的路线。
另外,除了作为一个例子说明的远程自动驾驶车辆2出入隧道的状况的情况以外,传感器类型确定部35还能够与根据地图信息获取的远程自动驾驶车辆2的周围状况(环境)相应地确定传感器信息将被发送给远程指示装置1的传感器22a的类型。
数据量削减部36削减由传感器类型确定部35确定的类型的传感器22a检测到的传感器信息的数据量。在此,在由传感器类型确定部35确定的类型的传感器22a检测到的传感器信息的数据量为预先设定的数据量阈值以上的情况下,数据量削减部36实施数据量的削减。数据量削减部36能够通过各种方法削减数据量。下面,对由数据量削减部36进行的数据量的削减的方法的具体例子进行说明。
(第一削减方法:依据视场角的削减方法)
作为数据量的第一削减方法,数据量削减部36根据地图信息限定在由传感器类型确定部35确定的类型的传感器22a检测到的传感器信息之中发送给远程指示装置1的视场角。在此,数据量削减部36限定在外部传感器22进行检测时的检测范围,作为对发送的视场角的限定。
在此,例如,如图4所示,在远程自动驾驶车辆2在交叉路口右转的状况下,作为一个例子,远程指令者R在进行远程指示时需要确认不存在对面车道直行过来的车辆、和横穿右转目的地的道路的行人这两者。即,根据远程自动驾驶车辆2的外部状况,远程指令者R为了进行远程指示而应该确认的场所不同。因此,远程自动驾驶车辆2能够将由传感器类型确定部35确定的类型的传感器检测到的传感器信息之中、包含根据外部状况而确定的场所(远程指令者R应该确认的场所)的部分发送给远程指示装置1即可。
作为具体例子,对如图4所示那样远程自动驾驶车辆2在交叉路口右转的情况进行说明。另外,图4所示的状况设为下雨或夜间。因此,如上所述,作为传感器信息将被发送给远程指示装置1的传感器的类型,例如为由传感器类型确定部35确定的激光雷达。另外,设为外部传感器22具有将远程自动驾驶车辆2的周围的各个场所(方向)作为检测区域的多个激光雷达。
在该情况下,数据量削减部36根据地图信息、由车辆位置获取部31获取的远程自动驾驶车辆2的位置信息、以及路线,判定为远程自动驾驶车辆2处于在交叉路口右转的状况。然后,数据量削减部36在外部传感器22具有的多个激光雷达之中选择将前方作为检测区域的激光雷达和将右前方(斜右前方)作为检测区域的激光雷达。另外,在图4中,记载于远程自动驾驶车辆2的周围的带阴影线的区域L1和L2分别表示对远程自动驾驶车辆2的前方进行检测的激光雷达的检测区域(视场角)和对右前方进行检测的激光雷达的检测区域(视场角)。
另外,例如在设置有将前方和右前方这两者作为检测区域的激光雷达的情况下,数据量削减部36也可以选择该激光雷达。即,数据量削减部36选择一个或多个激光雷达,该激光雷达包含远程指令者R应该确认的区域作为检测区域。然后,数据量削减部36将由选择出的激光雷达检测到的传感器信息设定为限定了用于发送给远程指示装置1的视场角的传感器信息。
另外,例如在设置有将左前方、前方以及右前方全部作为检测区域的激光雷达(例如视场角180°的激光雷达)的情况下,数据量削减部36也可以仅提取由该激光雷达检测的传感器信息之中的前方以及右前方的部分(限定视场角),并将提取的传感器信息作为限定了用于向远程指示装置1发送的视场角的传感器信息来使用。即,在存在将与应该提示给远程指令者R的范围相比而更宽的范围作为检测区域的传感器的情况下,数据量削减部36从该传感器的传感器信息提取包含应该提示给远程指令者R的范围的部分。并且,数据量削减部36也可以将提取出的传感器信息作为限定了向远程指示装置1发送的视场角的传感器信息来使用。即,数据量削减部36可以通过减小由传感器类型确定部35确定的类型的传感器的视场角来削减传感器信息的数据量。
以此方式,数据量削减部36以包含远程指令者R为了进行远程指示而应该确认的场所的信息的方式,限定由传感器类型确定部35确定的类型的传感器22a检测到的传感器信息之中的发送给远程指示装置1的视场角。像这样,数据量削减部36削减发送给远程指示装置1的传感器信息的数据量。
(第二削减方法:依据分辨率的削减方法)
作为数据量的第二削减方法,数据量削减部36例如通过调整由传感器类型确定部35确定的类型的传感器22a检测到的传感器信息的分辨率,削减传感器信息的数据量。
在此,作为对传感器信息的分辨率的调整,数据量削减部36例如能够通过缩小照相机的拍摄图像(传感器信息)的大小(降低其分辨率)来,削减数据量。例如,远程指令者R有时不使用高分辨率的拍摄图像,也能够通过低分辨率的拍摄图像来识别远程自动驾驶车辆2的外部状况。因此,数据量削减部36例如能够在远程指令者R能够识别外部状况的范围内缩小拍摄图像的大小。
另外,数据量削减部36例如能够通过改变照相机的拍摄图像(传感器信息)的存储格式来作为对传感器信息的分辨率的调整,由此削减数据量。在这种情况下,数据量削减部36以压缩数据量的方式改变拍摄图像的存储格式。例如,在拍摄图像的存储格式为BMP格式的情况下,数据量削减部36能够将存储格式改变为JPEG格式。在这种情况下,数据量削减部36也能够在远程指令者R能够识别外部状况的范围内改变拍摄图像的存储格式(压缩图像信息的数据量)。
(第三削减方法:依据帧率的削减方法)
作为数据量的第三削减方法,数据量削减部36通过在由传感器类型确定部35确定的类型的传感器22a检测到的传感器信息中,将各时刻的传感器信息的一部分从发送对象中排除,来削减传感器信息的数据量。
在此,例如,照相机具有传感器固有的帧率(也称为采样频率)。例如,在帧率高的照相机的图像信息(传感器信息)中,流畅地呈现物体的运动。另一方面,在帧率低的照相机的拍摄图像中,物体的运动呈现为逐帧前进。例如,远程指令者R有时不使用高帧率的图像信息也能够通过低帧率的图像信息来识别远程自动驾驶车辆2的外部状况。因此,数据量削减部36可以通过例如在远程指令者R能够识别外部状况的范围内从发送对象中排除由照相机拍摄的每个时刻的拍摄图像的一部分,从而削减图像信息的数据量。
例如,数据量削减部36在以60[fps]获取拍摄图像的照相机的图像信息之中每6张地提取拍摄图像。在该情况下,数据量削减部36能够将照相机的图像信息的数据量削减为与以10[fps]拍摄的图像信息同等的数据量。
另外,数据量削减部36可以单独地使用上述各种的数据量的削减方法,也可以组合使用两种以上的方法。数据量削减部36也可以使用上述以外的削减方法。
此外,作为是否执行数据量削减的基准的数据量阈值也可以是可变的。例如,数据量削减部36也可以根据与远程指示装置1的通信状态来改变数据量阈值。在这种情况下,例如,数据量削减部36可以在通信状态差时降低数据量阈值,在通信状态好时提高数据量阈值。由此,在通信状态差的情况下,数据量削减部36易于进行数据削减。另外,除了根据通信状态以外,数据量削减部36还可以根据各种状态或条件来改变数据量阈值。
此外,也可以是由传感器22a检测到的传感器信息的数据量越多,则数据量削减部36越增加削减的数据量。在该情况下,例如,数据量削减部36可以设置多个数据量阈值。具体地,例如,数据量削减部36可以设置第一数据量阈值和大于第一数据量阈值的第二数据量阈值作为数据量阈值。接着,在由传感器22a检测到的传感器信息的数据量为第二数据量阈值以上时,数据量削减部36实施数据量的削减。此外,在由传感器22a检测到的传感器信息的数据量为第一数据量阈值以上且小于第二数据量时,数据量削减部36以比传感器信息的数据量为第二数据量阈值以上的情况轻的程度削减数据量。此外,在由传感器22a检测到的传感器信息的数据量小于第一数据量阈值时,数据量削减部36不实施数据量的削减。像这样,数据量削减部36也可以设定多个数据量阈值,根据超过的数据量阈值来进行数据量的削减。
此外,数据量削减部36也可以对改变上述数据量阈值和由上述传感器22a检测到的传感器信息的数据量越多则削减的数据量越多进行组合地执行数据量的削减。在这种情况下,数据量削减部36也可以对上述数据量阈值可变和设置多个上述数据量阈值进行组合地执行数据量的削减。即,数据量削减部36也可以根据通信状态等改变设定的多个数据量阈值。
在由远程指示判定部34判定为应该请求远程指示的情况下,行驶状况信息发送部37将远程自动驾驶车辆2的行驶状况信息发送给远程指示装置1(远程指示服务器10)。远程自动驾驶车辆2的行驶状况信息包含用于远程指令者R识别远程自动驾驶车辆2的状况的信息。
具体而言,远程自动驾驶车辆2的行驶状况信息包含远程自动驾驶车辆2的车载传感器的检测信息和/或根据车载传感器的检测信息生成的信息(例如远程自动驾驶车辆2的俯视图像)。
车载传感器的检测信息包含由外部传感器22检测到的传感器信息之中的、由传感器类型确定部35确定的类型的传感器22a检测到的传感器信息。即,行驶状况信息包含由外部传感器22检测的传感器信息之中的、由传感器类型确定部35确定的类型的传感器22a检测到的传感器信息,不包含其他类型的传感器的传感器信息。以此方式,行驶状况信息发送部37将包含由传感器类型确定部35确定的类型的传感器22a检测到的传感器信息的行驶状况信息发送给远程指示装置1。此外,在通过数据量削减部36削减传感器信息的数据量的情况下,行驶状况信息发送部37将包含削减了数据量后的传感器信息的行驶状况信息发送给远程指示装置1。
另外,车载传感器的检测信息也可以包含内部传感器23的检测信息。内部传感器23的检测信息也可以包含车速传感器检测到的远程自动驾驶车辆2的车速的信息。内部传感器23的检测信息也可以包含横摆率传感器检测到的远程自动驾驶车辆2的横摆率的信息。内部传感器23的检测信息也可以包含远程自动驾驶车辆2的转向角的信息。行驶状况信息也可以包含行驶状态识别部33根据内部传感器23的检测信息而识别出的远程自动驾驶车辆2的行驶状态的信息。
进而,远程自动驾驶车辆2的行驶状况信息也可以包含远程自动驾驶车辆2的位置信息。远程自动驾驶车辆2的行驶状况信息也可以包含与乘员相关的信息(乘员的有无、乘员的人数)。远程自动驾驶车辆2的行驶状况信息也可以包含与远程指令者R可选择的远程指示相应的路线的信息。关于路线将在后面叙述。
路线生成部38生成用于远程自动驾驶车辆2的自动驾驶的路线(trajectory)。路线生成部38根据预先设定的目标轨道、地图信息、远程自动驾驶车辆2的位置信息、远程自动驾驶车辆2的外部环境、以及远程自动驾驶车辆2的行驶状态,生成自动驾驶的路线。路线相当于自动驾驶的行驶计划。
在路线中包含车辆自动驾驶行驶的路径(path)和自动驾驶中的车速计划。路径是在目标轨道上正在自动驾驶的车辆行驶的预先设定的轨迹。路径例如能够设为与目标轨道上的位置相应的远程自动驾驶车辆2的转向角变化的数据(转向角计划)。目标轨道上的位置指的是例如在目标轨道的行进方向上每隔规定间隔(例如1m)设定的设定纵向位置。转向角图指的是针对每个设定纵向位置而与目标转向角建立了关联的数据。
例如根据目的地、地图信息、以及远程自动驾驶车辆2的位置信息来设定目标轨道。也可以进一步考虑拥堵等交通信息来设定目标轨道。也可以通过公知的导航***来设定目标轨道。目的地可以由远程自动驾驶车辆2的乘员设定,也可以由自动驾驶ECU 20或导航***自动地提出。
路线生成部38例如根据目标轨道、地图信息、远程自动驾驶车辆2的外部环境以及远程自动驾驶车辆2的行驶状态,生成远程自动驾驶车辆2行驶的路径。路线生成部38例如以远程自动驾驶车辆2通过目标轨道包含的车道的中央(车道宽度方向上的中央)的方式生成路径。
车速计划是例如针对每个设定纵向位置而与目标车速建立了关联的数据。另外,也可以不以距离而是以远程自动驾驶车辆2的行驶时间为基准来设定设定纵向位置。设定纵向位置例如也可以被设定为车辆1秒后的到达位置、车辆2秒后的到达位置。在这种情况下,车速计划也可以表现为与行驶时间相应的数据。
路线生成部38例如根据路径和在地图信息所包含的法定最高速度等交通管制信息生成车速计划。也可以代替法定最高速度而使用针对地图上的位置或者区段预先设定的速度。路线生成部38由路径及车速计划生成自动驾驶的路线。此外,路线生成部38生成路线的方法并不限定于上述内容,也可以采用与自动驾驶相关的公知的方法。关于路线的内容也是同样的。
在远程指示判定部34向远程指示服务器10请求了远程指示的情况下,或者在远程自动驾驶车辆2接近成为远程指示的对象的交叉路口等的情况下,路线生成部38预先生成与远程指示相应的路线。根据远程自动驾驶车辆2的状况,远程指示的内容被预先确定。例如,在交叉路口的右转时的远程指示的内容包含“行进(右转开始)”的远程指示以及“停止(判断待定)”的远程指示。在交叉路口的右转时的远程指示的内容也可以包含不进行右转而直行的远程指示(轨道改变的远程指示),也可以包含紧急避让的远程指示。
例如在远程自动驾驶车辆2在交叉路口右转的状况下,路线生成部38以与右转开始的远程指示对应的方式,生成远程自动驾驶车辆2在交叉路口右转的路线。路线生成部38也可以在直至接收到远程指示为止的期间根据外部环境的变化来更新路线。另外,在存在从交叉路口的右转切换为交叉路口的直行的远程指示的情况下,路线生成部38也可以预先生成在交叉路口直行的路线。
在存在紧急避让的远程指示的情况下,路线生成部38也可以预先生成紧急避让用的路线。紧急避让用的路线以远程自动驾驶车辆2停车于在地图上预先设定的避让空间之中的任意避让空间的方式生成。路线生成部38例如以基于外部环境来识别各避让空间中有无障碍物并停车在空着的避让空间的方式,生成紧急避让用的路线。此外,路线生成部38并不一定需要预先生成路线,也可以在接收到远程指示之后生成与远程指示对应的路线。
自动驾驶控制部39执行远程自动驾驶车辆2的自动驾驶。自动驾驶控制部39例如根据远程自动驾驶车辆2的外部环境、远程自动驾驶车辆2的行驶状态、以及路线生成部38生成的路线,执行远程自动驾驶车辆2的自动驾驶。自动驾驶控制部39通过向致动器26发送控制信号,进行远程自动驾驶车辆2的自动驾驶。
在远程指示判定部34向远程指示服务器10请求了远程指示的情况下,自动驾驶控制部39等待接收来自远程指示服务器10的远程指示。在远程自动驾驶车辆2停车后请求了远程指示的情况下,自动驾驶控制部39维持停车状态直至接收到远程指示为止。
自动驾驶控制部39在具有驾驶执照的乘员乘车的情况下,在经过了预先设定的待机时间也未接收到远程指示时,可以请求该乘员进行判断或者手动驾驶。自动驾驶控制部39在经过待机时间也未接收到远程指示、乘员的判断或手动驾驶也都不可能的情况(乘员未搭乘的情况等)下,可以自动地进行紧急避让。
(远程指示装置的构成)
以下,参照附图,对本实施方式的远程指示装置1的构成进行说明。如图1所示,远程指示装置1具有远程指示服务器10及指令者接口3。
首先,对远程指示服务器10的硬件结构进行说明。图5是表示远程指示服务器10的硬件结构的一个例子的框图。如图5所示,远程指示服务器10被构成为具有处理器10a、存储部10b、通信部10c以及用户接口10d的通常的计算机。该情况下的用户指的是远程指示服务器10的用户(管理者等)。
处理器10a使各种操作***工作从而控制远程指示服务器10。处理器10a是包括控制装置、运算装置、寄存器等的CPU等运算器。处理器10a统辖存储部10b、通信部10c以及用户接口10d。存储部10b构成为包括存储器(memory)以及其他存储设备(storage)中的至少一者。存储器(memory)是ROM、RAM等记录介质。其他存储设备(storage)是HDD等记录介质。
通信部10c是用于进行经由网络N的通信的通信设备。通信部10c可以使用网络设备、网络控制器、网卡等。用户接口10d是针对管理者等用户的、远程指示服务器10的输入输出部。用户接口10d包括显示器、扬声器等输出设备、以及触摸面板等输入设备。此外,远程指示服务器10不是必须设置在设施,也可以搭载于车辆等移动体。
图6是表示远程指示装置1的结构的一个例子的框图。如图6所示,指令者接口3是针对远程指令者R的、远程指示装置1的输入输出部。指令者接口3具有输出部3a和指示输入部3b。
输出部3a是向远程指令者R输出使用于远程自动驾驶车辆2的远程指示的信息的设备。输出部3a包括输出图像的显示器和输出声音的扬声器。
作为一个例子,在显示器显示远程自动驾驶车辆2的照相机拍摄的远程自动驾驶车辆2的前方的图像(前方的景物的图像)。显示器可以具有多个显示画面,也可以显示远程自动驾驶车辆2的侧方和/或后方的图像。显示器没有特别限制,只要能够向远程指令者R提供视觉信息即可。显示器可以是以覆盖远程指令者R的眼睛的方式穿戴的可穿戴设备。
扬声器是例如穿戴在远程指令者R的头部的头戴式扬声器。扬声器例如通过语音将远程自动驾驶车辆2的状况(例如为交叉路口的右转时等状况)传递给远程指令者R。扬声器并非必须是头戴式,也可以是放置式。
输出部3a可以通过振动向远程指令者R提供信息。输出部3a例如也可以具有设置在远程指令者R的座椅的振动致动器。输出部3a也可以通过振动向远程指令者R提醒注意其他车辆相对于远程自动驾驶车辆2的接近等。输出部3a也可以在座椅的左右分别具有振动致动器,使与其他车辆的接近方向等相应的位置的振动致动器振动。另外,输出部3a可以具有被穿戴在远程指令者R的身体的可穿戴式的振动致动器。输出部3a能够通过使穿戴在身体的各位置的振动致动器与其他车辆的接近方向等相应地振动,向远程指令者R提供信息。
指示输入部3b是通过远程指令者R输入远程指示的设备。指示输入部3b例如具有操作杆。在指示输入部3b中,例如通过将操作杆向远程指令者R的前后方向的远侧推动来输入使远程自动驾驶车辆2行进的远程指示,通过将操作杆向远程指令者R的前后方向的近前侧推动来输入远程自动驾驶车辆2的减速或停车的远程指示。
指示输入部3b可以具有按钮,也可以通过由远程指令者R一边按压按钮一边推动操作杆来输入远程指示。指示输入部3b也可以具有触摸面板。触摸面板也可以与输出部3a的显示器共用。指示输入部3b也可以具有操作踏板。
指示输入部3b可以具有语音识别的功能,也可以具有手势识别的功能。远程指令者R的手势能够由搭载于指令者接口3的照相机和/或雷达传感器等识别。在指示输入部3b中,也可以通过将操作杆的操作、按钮的操作、触摸面板的操作、操作踏板的操作、语音输入、手势之中的两个以上组合来输入远程指示。
接着,对远程指示服务器10的功能构成进行说明。如图6所示,远程指示服务器10具有远程指示请求接收部11、信息提供部12、以及远程指示发送部13。
远程指示请求接收部11在远程自动驾驶车辆2向远程指示服务器10请求了远程指示的情况下,接收远程指示的请求。另外,远程指示请求接收部11通过来自远程自动驾驶车辆2的发送来获取请求了远程指示的远程自动驾驶车辆2的行驶状况信息。此外,远程指示请求接收部11也可以获取未请求远程指示的远程自动驾驶车辆2的行驶状况信息。
信息提供部12向远程指令者R提供各种信息。信息提供部12在远程指示请求接收部11接收了远程指示的请求的情况下,经由指令者接口3向负责的远程指令者R请求远程指示的输入。
另外,信息提供部12根据远程指示请求接收部11获取的远程自动驾驶车辆2的行驶状况信息,向远程指令者R提供远程自动驾驶车辆2的信息。信息提供部12例如在指令者接口3的输出部3a的显示器显示远程自动驾驶车辆2的前方的图像。信息提供部12也可以通过视角转换来显示从远程自动驾驶车辆2的驾驶席附近看到的图像。信息提供部12也可以显示远程自动驾驶车辆2的侧方以及后方的图像。信息提供部12可以显示对拍摄远程自动驾驶车辆2的周围而得到的图像进行合成而得到的全景图像,也可以显示以通过图像合成和视角转换来俯视远程自动驾驶车辆2的方式生成的俯视图像。信息提供部12也可以进行图像中的物体的强调显示(例如用框包围其他车辆等的显示)。在图像中包含信号灯的情况下,信息提供部12可以将信号灯的亮灯状态的识别结果显示于显示器。
信息提供部12也可以不仅将远程自动驾驶车辆2的照相机拍摄的照相机图像显示于显示器,还可以将各种信息显示于显示器。信息提供部12也可以使用文本或者图标等显示请求了远程指示的远程自动驾驶车辆2的状况(交叉路口的右转时、障碍物的偏移躲避时等状况)。信息提供部12也可以将远程指令者R能够选择的远程指示的种类(行进、等待等)显示于显示器。信息提供部12也可以将与远程指示相应的远程自动驾驶车辆2的路线相关的信息(与行进的远程指示相应的远程自动驾驶车辆2的行进的轨迹等)显示于显示器。
信息提供部12也可以显示远程自动驾驶车辆2的雷达传感器检测到的物体的信息。物体的信息也可以作为图标显示在俯视图像中。在识别出物体的种类的情况下,也可以进行与物体的种类相应的图标显示。信息提供部12也可以将根据远程自动驾驶车辆2的位置信息而获取的远程自动驾驶车辆2的周围的地图信息显示于显示器。地图信息可以是远程指示服务器10具有的,也可以从其他服务器等获取。也可以从远程自动驾驶车辆2获取远程自动驾驶车辆2的周围的地图信息。
信息提供部12也可以将根据远程自动驾驶车辆2的位置信息而获取的道路交通信息显示于显示器。道路交通信息包括拥堵发生路段、施工路段信息、事故位置信息等之中的至少一者。例如可以从交通信息中心获取道路交通信息。
信息提供部12可以将远程自动驾驶车辆2的车速的信息显示于显示器,也可以将远程自动驾驶车辆2的转向角的信息显示于显示器。信息提供部12也可以将远程自动驾驶车辆2所在的道路的坡度的信息显示于显示器。在远程自动驾驶车辆2具有车厢内照相机的情况下,信息提供部12也可以根据需要而显示远程自动驾驶车辆2的车厢内的图像。信息提供部12也可以将远程自动驾驶车辆2中的乘员的乘车状况和/或货物的装载状况显示于显示器。
信息提供部12通过指令者接口3的输出部3a的扬声器向远程指令者R提供声音信息。信息提供部12也可以将远程自动驾驶车辆2的状况(交叉路口的右转时、障碍物的偏移躲避时等)以语音的形式从扬声器输出。信息提供部12也可以将远程自动驾驶车辆2的周围的其他车辆等的接近以声音或语音的形式从扬声器输出。信息提供部12也可以将远程自动驾驶车辆2的周围的声音(噪声)直接从扬声器输出。信息提供部12也可以根据需要从扬声器输出车厢内的乘员的语音。另外,利用扬声器提供信息不是必须的。
此外,在输出部3a具有振动致动器的情况下,信息提供部12也可以通过振动向远程指令者R提供信息。在该情况下,信息提供部12例如能够通过使其他车辆相对于远程自动驾驶车辆2的接近方向、行人存在的方向等应该注意的方向所对应的位置的振动致动器振动,向远程指令者R进行信息提供(提醒注意)。
在远程指令者R向指令者接口3的指示输入部3b输入了远程指示的情况下,远程指示发送部13将输入的远程指示发送给远程自动驾驶车辆2。在将远程指令者R输入的远程指示发送给了远程自动驾驶车辆2的情况下,信息提供部12可以将远程自动驾驶车辆2的信息继续传递给远程指令者R,也可以切换为请求远程指示的其他的远程自动驾驶车辆2的信息。
(行驶状况信息的发送处理的流程)
接下来,将使用图7的流程图,对远程指示判定部34判定为应该请求远程指示的情况下自动驾驶ECU 20生成行驶状况信息并发送的处理的流程进行说明。此外,在远程指示判定部34判定为应该请求远程指示的情况下开始图7所示的处理。
如图7所示,在远程指示判定部34判定为应该请求远程指示时,传感器类型确定部35根据远程自动驾驶车辆2的外部环境或地图信息,确定传感器信息将被发送给远程指示装置1的传感器22a的类型(S101)。数据量削减部36判断由传感器类型确定部35确定的类型的传感器22a检测到的传感器信息的数据量是否为数据量阈值以上(S102)。
在数据量为数据量阈值以上的情况下(S102:是),数据量削减部36削减由传感器类型确定部35确定的类型的传感器22a检测到的传感器信息的数据量(S103)。然后,行驶状况信息发送部37生成包含由数据量削减部36削减了数据量后的传感器信息的行驶状况信息,并发送给远程指示装置1(S104)。
另一方面,在数据量不为数据量阈值以上的情况下(S102:否),数据量削减部36不进行数据量的削减。然后,行驶状况信息发送部37生成包含由传感器类型确定部35确定的类型的传感器22a检测到的传感器信息的行驶状况信息,并发送给远程指示装置1(S104)。
如上所述,在车辆远程指示***100中,根据外部环境或地图信息,确定传感器信息将被发送给远程指示装置1的传感器22a的类型,并发送由确定的类型的传感器22a检测到的传感器信息。即,在该车辆远程指示***100中,发送根据外部环境或地图信息确定的类型的传感器22a的传感器信息,不发送其它类型的传感器的传感器信息。此外,在该车辆远程指示***100中,在确定传感器22a的类型时,根据外部环境或地图信息来进行该确定。由此,远程指令者R能够基于根据外部环境或地图信息确定的类型的传感器22a的传感器信息,对远程自动驾驶车辆2恰当地发出远程指示。如上所述,在车辆远程指示***100中,能够向远程指令者R提供对进行远程指示的判断而言恰当的类型的传感器信息,并且削减从远程自动驾驶车辆2发送给远程指示装置1的传感器信息的数据量。
远程自动驾驶车辆2具有数据量削减部36,所述数据量削减部36在由传感器类型确定部35确定的类型的传感器22a检测出的传感器信息的数据量为数据量阈值以上的情况下削减数据量。在该情况下,在检测出的传感器信息的数据量为数据量阈值以上的情况下,远程自动驾驶车辆2能够削减数据量并发送。由此,远程自动驾驶车辆2能够进一步削减发送的数据量。
数据量削减部36根据地图信息限定发送给远程指示装置1的视场角,由此削减传感器信息的数据量。在该情况下,远程自动驾驶车辆2使远程指令者R能够基于根据地图信息而限定了的视场角的传感器信息发出恰当的远程指示,并且能够进一步削减发送给远程指示装置1的传感器信息的数据量。
以上,对本公开的实施方式进行了说明,但本公开并不限定于上述实施方式。例如,数据量削减部36削减数据量不是必须的。也可以构成为不削减数据量而将由传感器类型确定部35确定的传感器22a检测到的传感器信息发送给远程指示装置1。此外,也可以是,即使在由传感器类型确定部35确定的类型的传感器22a检测到的传感器信息的数据量小于数据量阈值的情况下,数据量削减部36也对由传感器22a检测到的传感器信息进行编辑。然后,也可以将编辑后的传感器信息发送给远程指示装置1。
此外,远程指示装置1也可以搭载于远程自动驾驶车辆2。在该情况下,远程指令者R也搭乘于远程自动驾驶车辆2。远程指示服务器10也可以是由多辆远程自动驾驶车辆2的ECU构成的云服务器。
Claims (4)
1.一种远程自动驾驶车辆,具有检测车辆周围的多个传感器,所述远程自动驾驶车辆将由所述传感器检测到的传感器信息发送给远程指示装置,并根据通过所述远程指示装置发出的来自远程指令者的远程指示而行驶,所述远程自动驾驶车辆具有:
传感器类型确定部,其根据外部环境或地图信息来确定所述传感器信息将被发送给所述远程指示装置的所述传感器的类型;以及
传感器信息发送部,其将由所述传感器类型确定部确定的类型的所述传感器检测到的所述传感器信息发送给所述远程指示装置。
2.根据权利要求1所述的远程自动驾驶车辆,其中,
还具有数据量削减部,所述数据量削减部削减由所述传感器类型确定部确定的类型的所述传感器检测到的所述传感器信息的数据量,
在由所述传感器类型确定部确定的类型的所述传感器检测到的所述传感器信息的所述数据量为预先设定的数据量阈值以上的情况下,所述数据量削减部对所述数据量进行削减,
所述传感器信息发送部将由所述数据量削减部削减了所述数据量的所述传感器信息发送给所述远程指示装置。
3.根据权利要求2所述的远程自动驾驶车辆,其中,
所述数据量削减部根据所述地图信息限定由所述传感器类型确定部确定的类型的所述传感器检测到的所述传感器信息之中的发送给所述远程指示装置的视场角,从而削减所述传感器信息的所述数据量。
4.一种车辆远程指示***,具有权利要求1至3中任意一项所述的远程自动驾驶车辆、和远程指令者发出与所述远程自动驾驶车辆的行驶相关的远程指示的远程指示装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019-187894 | 2019-10-11 | ||
JP2019187894A JP7310524B2 (ja) | 2019-10-11 | 2019-10-11 | 遠隔自動運転車両、及び車両遠隔指示システム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112650212A true CN112650212A (zh) | 2021-04-13 |
Family
ID=75346480
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011045537.1A Pending CN112650212A (zh) | 2019-10-11 | 2020-09-28 | 远程自动驾驶车辆及车辆远程指示*** |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210109515A1 (zh) |
JP (1) | JP7310524B2 (zh) |
CN (1) | CN112650212A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113777975A (zh) * | 2021-08-18 | 2021-12-10 | 浙江越影科技有限公司 | 一种自动驾驶车辆的远程辅助***及方法 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210370960A1 (en) * | 2020-01-22 | 2021-12-02 | Clearpath Robotics Inc. | Systems and methods for monitoring an operation of one or more self-driving vehicles |
JP2021160849A (ja) * | 2020-03-31 | 2021-10-11 | 本田技研工業株式会社 | 管理装置、運搬システム、管理方法、およびプログラム |
US11670089B2 (en) * | 2021-06-03 | 2023-06-06 | Not A Satellite Labs, LLC | Image modifications for crowdsourced surveillance |
JP2023028107A (ja) * | 2021-08-18 | 2023-03-03 | トヨタ自動車株式会社 | 遠隔運転機能付き多機能車両及び遠隔運転方法 |
WO2023127353A1 (ja) * | 2021-12-28 | 2023-07-06 | 株式会社クボタ | 農業機械、センシングシステム、センシング方法、遠隔操縦システム、および制御方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015145541A1 (ja) * | 2014-03-24 | 2015-10-01 | 日立マクセル株式会社 | 映像表示装置 |
US20170285165A1 (en) * | 2014-09-25 | 2017-10-05 | Audi Ag | Method for operating a multiplicity of radar sensors in a motor vehicle and motor vehicle |
CN107850895A (zh) * | 2015-05-13 | 2018-03-27 | 优步技术公司 | 通过引导协助操作的自动驾驶车辆 |
CN108334064A (zh) * | 2017-01-20 | 2018-07-27 | 株式会社久保田 | 自动行驶作业车 |
CN108458746A (zh) * | 2017-12-23 | 2018-08-28 | 天津国科嘉业医疗科技发展有限公司 | 一种基于多类型传感器自适应融合方法 |
WO2018155159A1 (ja) * | 2017-02-24 | 2018-08-30 | パナソニックIpマネジメント株式会社 | 遠隔映像出力システム、及び遠隔映像出力装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4688196B2 (ja) * | 2001-03-23 | 2011-05-25 | スタンレー電気株式会社 | 自動車用暗視システム |
DE10131840A1 (de) * | 2001-06-30 | 2003-01-23 | Daimler Chrysler Ag | Vorrichtung zur Verbesserung der Sicht in Fahrzeugen |
US9632210B2 (en) * | 2013-05-07 | 2017-04-25 | Google Inc. | Methods and systems for detecting weather conditions using vehicle onboard sensors |
US9767366B1 (en) * | 2014-08-06 | 2017-09-19 | Waymo Llc | Using obstacle clearance to measure precise lateral |
US10345809B2 (en) * | 2015-05-13 | 2019-07-09 | Uber Technologies, Inc. | Providing remote assistance to an autonomous vehicle |
KR101843773B1 (ko) * | 2015-06-30 | 2018-05-14 | 엘지전자 주식회사 | 차량 운전 보조 장치, 차량용 디스플레이 장치 및 차량 |
CN109641538A (zh) * | 2016-07-21 | 2019-04-16 | 国际智能技术公司 | 使用车辆创建,更新地图的***和方法 |
JP6706845B2 (ja) | 2017-02-28 | 2020-06-10 | パナソニックIpマネジメント株式会社 | 遠隔操縦装置、遠隔操縦方法 |
JP2018142921A (ja) | 2017-02-28 | 2018-09-13 | パナソニックIpマネジメント株式会社 | 自動運転制御装置、自動運転制御方法、自動運転制御プログラム、自動運転車両、遠隔制御装置、遠隔制御方法、及び遠隔制御プログラム |
US10810806B2 (en) * | 2017-03-13 | 2020-10-20 | Renovo Motors, Inc. | Systems and methods for processing vehicle sensor data |
-
2019
- 2019-10-11 JP JP2019187894A patent/JP7310524B2/ja active Active
-
2020
- 2020-09-28 CN CN202011045537.1A patent/CN112650212A/zh active Pending
- 2020-10-08 US US17/065,669 patent/US20210109515A1/en not_active Abandoned
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015145541A1 (ja) * | 2014-03-24 | 2015-10-01 | 日立マクセル株式会社 | 映像表示装置 |
US20170285165A1 (en) * | 2014-09-25 | 2017-10-05 | Audi Ag | Method for operating a multiplicity of radar sensors in a motor vehicle and motor vehicle |
CN107850895A (zh) * | 2015-05-13 | 2018-03-27 | 优步技术公司 | 通过引导协助操作的自动驾驶车辆 |
CN108334064A (zh) * | 2017-01-20 | 2018-07-27 | 株式会社久保田 | 自动行驶作业车 |
WO2018155159A1 (ja) * | 2017-02-24 | 2018-08-30 | パナソニックIpマネジメント株式会社 | 遠隔映像出力システム、及び遠隔映像出力装置 |
CN108458746A (zh) * | 2017-12-23 | 2018-08-28 | 天津国科嘉业医疗科技发展有限公司 | 一种基于多类型传感器自适应融合方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113777975A (zh) * | 2021-08-18 | 2021-12-10 | 浙江越影科技有限公司 | 一种自动驾驶车辆的远程辅助***及方法 |
Also Published As
Publication number | Publication date |
---|---|
US20210109515A1 (en) | 2021-04-15 |
JP7310524B2 (ja) | 2023-07-19 |
JP2021064118A (ja) | 2021-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10937314B2 (en) | Driving assistance apparatus for vehicle and control method thereof | |
CN112466140B (zh) | 车辆远程指示*** | |
JP7310524B2 (ja) | 遠隔自動運転車両、及び車両遠隔指示システム | |
KR102007304B1 (ko) | 차량 주행 시스템 및 차량 | |
WO2017187622A1 (ja) | 車両制御システム、車両制御方法、および車両制御プログラム | |
KR20190033368A (ko) | 주행 시스템 및 차량 | |
CN111830859B (zh) | 车辆远程指示*** | |
US20200202535A1 (en) | Driver assistance apparatus and vehicle | |
CN112309157B (zh) | 图像显示装置 | |
CN112486160A (zh) | 车辆远程指示*** | |
JP7327344B2 (ja) | 車両遠隔支援システム、車両遠隔支援サーバ、及び車両遠隔支援方法 | |
JPWO2020009060A1 (ja) | 情報処理装置及び情報処理方法、コンピュータプログラム、並びに移動体装置 | |
KR20200095314A (ko) | 차량 간 영상 공유 방법 | |
JP2021018636A (ja) | 車両遠隔指示システム | |
JP2021022033A (ja) | 車両遠隔指示システム | |
KR102089955B1 (ko) | 차량에 구비된 차량용 로봇 및 차량용 로봇의 제어방법 | |
JP2020166479A (ja) | 運転支援装置 | |
US20230415652A1 (en) | Camera module, information processing system, information processing method, and information processing apparatus | |
JP2022174921A (ja) | 車両遠隔指示システム | |
JP2022129400A (ja) | 運転支援装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |