CN108537326A - 用于自动驾驶车辆的方法、介质和*** - Google Patents
用于自动驾驶车辆的方法、介质和*** Download PDFInfo
- Publication number
- CN108537326A CN108537326A CN201810184840.6A CN201810184840A CN108537326A CN 108537326 A CN108537326 A CN 108537326A CN 201810184840 A CN201810184840 A CN 201810184840A CN 108537326 A CN108537326 A CN 108537326A
- Authority
- CN
- China
- Prior art keywords
- layer
- group
- scale
- offset vector
- lamination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Algebra (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Navigation (AREA)
Abstract
在一个实施方式中,公开了加速批规范化的卷积神经网络(CNN)模型的***。***从第一CNN模型提取多个第一层组,第一组中的每组具有第一卷积层和第一批规范化层。对于多个第一组中的每组,***基于第一批规范化层计算第一标度矢量和第一偏移矢量,以及基于第一卷积层以及第一标度矢量和第一偏移矢量生成表示多个第一组中的对应的组的第二卷积层。***基于与多个第一组对应的第二卷积层生成加速CNN模型,以使得加速CNN模型随后用于将由自动驾驶车辆(ADV)感知的对象分类。
Description
技术领域
本发明的实施方式大体涉及操作自动驾驶车辆。更具体地,本发明的实施方式涉及用于自动驾驶车辆(ADV)的卷积神经网络模型的卷积/退卷积层和批规范化(batch-norm)层的离线组合。
背景技术
以自动驾驶模式运行(例如,无人驾驶)的车辆可以将乘员、尤其是驾驶员从一些驾驶相关的职责中解放出来。当以自动驾驶模式运行时,车辆可以使用车载传感器导航到各个位置,从而允许车辆在最少人机交互的情况下或在一些情况下在没有任何乘客的情况下行驶。在操作中,为了导航通过道路,ADV通常利用神经网络对对象(例如,交通灯)进行学习和分类。
在机器学习中,因为在深度卷积神经网络(CNN)中存在许多内层并且每层贡献计算和存储分配的区块,所以CNN或者深度CNN的训练和推理是计算和存储密集型的。附加激活层(Activation Layer)趋向于增加推理和测试的准确度;然而,附加层也增加了深度CNN所需要的计算和存储分配。
发明内容
本申请的一方面提供了一种计算机实施的方法,所述方法包括:从第一卷积神经网络模型提取多个第一层组,所述多个第一层组中的每组具有第一卷积层和第一批规范化层;对于所述多个第一层组中的每组,基于所述第一批规范化层计算第一标度矢量和第一偏移矢量,以及基于所述第一卷积层、所述第一标度矢量和所述第一偏移矢量生成表示所述多个第一层组中的对应的组的第二卷积层;以及基于与所述多个第一层组对应的第二卷积层生成第二卷积神经网络模型,其中,所述第二卷积神经网络模型随后用于将由自动驾驶车辆感知的对象分类。
本申请的另一方面提供了一种非暂时性机器可读介质,所述非暂时性机器可读介质存储有指令,所述指令当被处理器执行时,致使所述处理器执行操作,所述操作包括:从第一卷积神经网络模型提取多个第一层组,所述多个第一层组中的每组具有第一卷积层和第一批规范化层;对于所述多个第一层组中的每组,基于所述第一批规范化层计算第一标度矢量和第一偏移矢量,以及基于所述第一卷积层、所述第一标度矢量和所述第一偏移矢量生成表示所述多个第一层组中的对应的组的第二卷积层;以及基于与所述多个第一层组对应的第二卷积层生成第二卷积神经网络模型,其中,所述第二卷积神经网络模型随后用于将由自动驾驶车辆感知的对象分类。
本申请的又一方面提供了一种数据处理***,包括:处理器,以及存储器,所述存储器联接至所述处理器以存储指令,其中,当所述指令被所述处理器执行时,致使所述处理器执行操作,所述操作包括:从第一卷积神经网络模型提取多个第一层组,所述多个第一层组中的每组具有第一卷积层和第一批规范化层;对于所述多个第一层组中的每组,基于所述第一批规范化层计算第一标度矢量和第一偏移矢量,以及基于所述第一卷积层、所述第一标度矢量和所述第一偏移矢量生成表示所述多个第一层组中的对应的组的第二卷积层;以及基于与所述多个第一层组对应的第二卷积层生成第二卷积神经网络模型,其中,所述第二卷积神经网络模型随后用于将由自动驾驶车辆感知的对象分类。
附图说明
本发明的实施方式在附图的各图中以举例而非限制的方式示出,附图中的相似的附图标记指示相似的元件。
图1是示出根据本发明的一个实施方式的网络化***的框图。
图2是示出根据本发明的一个实施方式的自动驾驶车辆的示例的框图。
图3是示出根据本发明的一个实施方式的与自动驾驶车辆一起使用的感知与规划***的示例的框图。
图4是示出根据本发明的一个实施方式的由用于自动驾驶车辆的初始CNN模型生成的新CNN模型的框图。
图5是示出根据本发明的一个实施方式的用于自动驾驶车辆的神经网络模型生成器的示例的框图。
图6A是示出根据本发明的一个实施方式的从初始深度神经网络模型提取层的示例的框图。
图6B是示出根据本发明的一个实施方式的由初始深度神经网络模型生成加速(accelerated)卷积/退卷积层的示例的框图。
图7A是示出根据本发明的一个实施方式的由初始CNN模型的提取的层生成加速卷积层的示例的框图。
图7B是示出根据本发明的一个实施方式的由初始CNN模型的提取的层生成加速退卷积层的示例的框图。
图8是示出根据本发明的一个实施方式的对感知的对象进行探测和分类的感知模块的示例的框图。
图9是根据本发明的一个实施方式的由初始CNN生成新CNN的方法的总体的流程图。
图10是示出根据一个实施方式的数据处理***的框图。
具体实施方式
将参考以下所讨论的细节来描述本发明的各种实施方式和方面,附图将示出所述各种实施方式。下列描述和附图是对本发明的说明,而不应当解释为限制本发明。描述了许多特定细节以提供对本发明各种实施方式的全面理解。然而,在某些情况下,并未描述众所周知的或常规的细节以提供对本发明的实施方式的简洁讨论。
本说明书中对“一个实施方式”或“实施方式”的提及意味着结合该实施方式所描述的特定特征、结构或特性可以包括在本发明的至少一个实施方式中。短语“在一个实施方式中”在本说明书中各个地方的出现不必全部指同一实施方式。
根据一些实施方式,通过将初始CNN的层组(Group of Layers)合并成单个层来由初始CNN生成加速CNN或者新CNN,从而显著地提高了实时计算的效率。在一个实施方式中,***从第一卷积神经网络(CNN)模型提取多个第一层组,第一组中的每组具有第一卷积层和第一批规范化层。对于第一组中的每组,***基于第一批规范化层计算第一标度(Scale)矢量和第一偏移矢量,以及基于第一卷积层、第一标度矢量和第一偏移矢量生成表示对应的第一组的第二卷积层。***基于与多个第一组对应的第二卷积层生成第二CNN模型。随后,第二CNN模型用于将由自动驾驶车辆感知的对象分类。在另一个实施方式中,对于第一组中的每组,***基于对应的第一组的第一批规范化层和第一标度层计算第二标度矢量和第二偏移矢量;以及基于第二标度矢量、第二偏移矢量和第一卷积层生成第二卷积层。以上过程可被迭代地执行以处理退卷积层。以上过程可通过数据分析***离线执行。然后,新CNN模型可被自动驾驶车辆实时加载并利用来将对象分类。
图1是示出根据本发明的一个实施方式的自动驾驶车辆网络配置的框图。参考图1,网络配置100包括可以通过网络102通信地联接到一个或多个服务器103至104的自动驾驶车辆101。尽管示出一个自动驾驶车辆,但多个自动驾驶车辆可以通过网络102联接到彼此和/或联接到服务器103至104。网络102可以是任何类型的网络,例如,有线或无线的局域网(LAN)、诸如互联网的广域网(WAN)、蜂窝网络、卫星网络或其组合。服务器103至104可以是任何类型的服务器或服务器群组,诸如,网络或云服务器、应用服务器、后台服务器或其组合。服务器103至104可以是数据分析服务器、内容服务器、交通信息服务器、地图和兴趣点(MPOI)服务器或者位置服务器等。
自动驾驶车辆是指可以被配置成处于自动驾驶模式下的车辆,在所述自动驾驶模式下车辆在极少或没有来自驾驶员的输入的情况下导航通过环境。这种自动驾驶车辆可以包括传感器***,传感器***具有被配置成检测与车辆运行环境有关的信息的一个或多个传感器。车辆和其相关的控制器使用检测到的信息来导航通过所述环境。自动驾驶车辆101可以在手动模式下、在全自动驾驶模式下或者在部分自动驾驶模式下运行。
在一个实施方式中,自动驾驶车辆101包括但不限于感知与规划***110、车辆控制***111、无线通信***112、用户接口***113和传感器***115。自动驾驶车辆101还可以包括普通车辆中包括的某些常用部件,诸如:发动机、车轮、方向盘、变速器等,所述部件可以由车辆控制***111和/或感知与规划***110使用多种通信信号和/或命令进行控制,该多种通信信号和/或命令例如,加速信号或命令、减速信号或命令、转向信号或命令、制动信号或命令等。
部件110至115可以经由互连件、总线、网络或其组合通信地联接到彼此。例如,部件110至115可以经由控制器局域网(CAN)总线通信地联接到彼此。CAN总线是被设计成允许微控制器和装置在没有主机的应用中与彼此通信的车辆总线标准。它是最初是为汽车内的复用电气布线设计的基于消息的协议,但也用于许多其它环境。
现在参考图2,在一个实施方式中,传感器***115包括但不限于一个或多个相机211、全球定位***(GPS)单元212、惯性测量单元(IMU)213、雷达单元214以及光探测和测距(LIDAR)单元215。GPS***212可以包括收发器,所述收发器可操作以提供关于自动驾驶车辆的位置的信息。IMU单元213可以基于惯性加速度来感测自动驾驶车辆的位置和定向变化。雷达单元214可以表示利用无线电信号来感测自动驾驶车辆的本地环境内的对象的***。在一些实施方式中,除感测对象之外,雷达单元214可以附加地感测对象的速度和/或前进方向。LIDAR单元215可以使用激光来感测自动驾驶车辆所处环境中的对象。除其它***部件之外,LIDAR单元215还可以包括一个或多个激光源、激光扫描器以及一个或多个检测器。相机211可以包括用来采集自动驾驶车辆周围环境的图像的一个或多个装置。相机211可以是静物相机和/或视频相机。相机可以是可机械地移动的,例如,通过将相机安装在旋转和/或倾斜平台上。
传感器***115还可以包括其它传感器,诸如:声纳传感器、红外传感器、转向传感器、油门传感器、制动传感器以及音频传感器(例如,麦克风)。音频传感器可以被配置成从自动驾驶车辆周围的环境中采集声音。转向传感器可以被配置成感测方向盘、车辆的车轮或其组合的转向角度。油门传感器和制动传感器分别感测车辆的油门位置和制动位置。在一些情形下,油门传感器和制动传感器可以集成为集成式油门/制动传感器。
在一个实施方式中,车辆控制***111包括但不限于转向单元201、油门单元202(也被称为加速单元)和制动单元203。转向单元201用来调整车辆的方向或前进方向。油门单元202用来控制电动机或发动机的速度,电动机或发动机的速度转而控制车辆的速度和加速度。制动单元203通过提供摩擦使车辆的车轮或轮胎减速而使车辆减速。应注意,如图2所示的部件可以在硬件、软件或其组合中实施。
回到图1,无线通信***112允许自动驾驶车辆101与诸如装置、传感器、其它车辆等外部***之间的通信。例如,无线通信***112可以与一个或多个装置直接无线通信,或者经由通信网络进行无线通信,诸如,通过网络102与服务器103至104通信。无线通信***112可以使用任何蜂窝通信网络或无线局域网(WLAN),例如,使用WiFi,以与另一部件或***通信。无线通信***112可以例如使用红外链路、蓝牙等与装置(例如,乘客的移动装置、显示装置、车辆101内的扬声器)直接通信。用户接口***113可以是在车辆101内实施的***装置的部分,包括例如键盘、触摸屏显示装置、麦克风和扬声器等。
自动驾驶车辆101的功能中的一些或全部可以由感知与规划***110控制或管理,尤其当在自动驾驶驾驶模式下操作时。感知与规划***110包括必要的硬件(例如,处理器、存储器、存储设备)和软件(例如,操作***、规划和路线安排程序),以从传感器***115、控制***111、无线通信***112和/或用户接口***113接收信息,处理所接收的信息,规划从起始点到目的地点的路线或路径,随后基于规划和控制信息来驾驶车辆101。替代地,感知与规划***110可以与车辆控制***111集成在一起。
例如,作为乘客的用户可以例如经由用户接口来指定行程的起始位置和目的地。感知与规划***110获得行程相关数据。例如,感知与规划***110可以从MPOI服务器中获得位置和路线信息,所述MPOI服务器可以是服务器103至104的一部分。位置服务器提供位置服务,并且MPOI服务器提供地图服务和某些位置的POI。替代地,此类位置和MPOI信息可以本地高速缓存在感知与规划***110的永久性存储装置中。
当自动驾驶车辆101沿着路线移动时,感知与规划***110也可以从交通信息***或服务器(TIS)获得实时交通信息。应注意,服务器103至104可以由第三方实体进行操作。替代地,服务器103至104的功能可以与感知与规划***110集成在一起。基于实时交通信息、MPOI信息和位置信息以及由传感器***115检测或感测的实时本地环境数据(例如,障碍物、对象、附近车辆),感知与规划***110可以规划最佳路线并且根据所规划的路线例如经由控制***111来驾驶车辆101,以安全高效地到达指定目的地。
服务器103可以是针对多种客户端执行机器学习或者训练服务的数据分析***。在一个实施方式中,数据分析***103包括数据采集器121、机器学习引擎122、神经网络模型生成器123和神经网络模型124。数据采集器121可从通信联接至服务器103的多种车辆(自动驾驶车辆或者由人驾驶的普通车辆)采集多种训练数据。训练数据的示例可以是用于图像识别功能的图像数据。训练数据可被编译成类别以及与正确答案标签相关。在另一个实施方式中,数据采集器121可从万维网从在线档案文件下载训练数据集。
基于由数据采集器121采集的训练数据,机器学习引擎122可为了对象探测以及对象分类的目的来训练神经网络模型124的集合。例如,机器学习引擎122可使用诸如图像/正确答案标签对的训练数据来训练深度神经网络模型(作为神经网络模型124的一部分),从而探测诸如汽车、行人或者停止信号的对象。在另一个示例中,机器学习引擎122可使用训练数据来训练诸如深度卷积神经网络(CNN)模型的深度神经网络模型(作为神经网络模型124的一部分),从而将交通灯分类为红灯、黄灯或者绿灯。应注意,神经网络模型124不限于前馈神经网络模型或者卷积神经网络模型,而是可包括径向基函数网络模型、循环神经网络模型、Kohonen自组织网络模型等。神经网络模型124可包括诸如LeNetTM、AlexNetTM、ZFNetTM、GoogLeNetTM、VGGNetTM等多种深度CNN模型。
“深度”神经网络指的是具有多重内层的神经网络。神经元的“激活功能”限定给定输入或者输入集的神经元的输出。“加速”指的是在神经网络的层计算和/或存储性能或者神经网络的计算和/或存储性能方面的加速。“在线”激活指的是ADV实时执行以探测对象或者将对象分类的激活。“离线”激活指的是服务器或者ADV为探测对象或者将对象分类作准备而执行的激活。
人工神经网络(ANN)是基于大量神经单元或者神经元的计算方法,该计算方法大致模仿具有由轴突连接的大量神经元的生物大脑。每个神经元与许多其它神经元连接,以及随着学习或者训练,轴突或者连接在其对连接的神经元的激活状态的作用方面可被加强或者抑制。每个单独的神经元可具有将其全部输入值合并在一起的功能。每个连接以及单元本身可存在阈值函数或者极限函数以使得:信号必须在传播至其它神经元之前超过限制。这些***是自学习和训练的,而不是显式编程的。
卷积神经网络(CNN)是一类前馈人工神经网络(ANN),在该前馈人工神经网络中,其中,其神经元之间的连接图案受到动物视觉皮层的组织的启发。各个皮层神经元在被称为感受野的空间的受限制的区域中响应刺激。不同神经元的感受野部分地重叠,以使得这些感受野覆盖视野。各个神经元在其感受野内对刺激的响应可通过卷积运算而被数学近似。深度CNN是具有多重内层的CNN。神经网络的“内层”指的是神经网络的输入层与输出层之间的层。
由于随着上述层的参数改变而导致在训练期间每个层的输入的分布改变,所以训练CNN是复杂的。“训练”CNN包含将输入迭代地施加至CNN的输入层,以及将期望的输出与CNN的输出层的实际输出相比较来计算误差项。这些误差项用于调节CNN的隐层的权重和偏置,以使得下一次的输出值将接近“正确”值。每个层的输入的分布使训练降速(即,为了收敛,需要更低的训练速率),以及需要细致的参数初始化(即,将内层的激活的初始权重和偏置针对收敛而设定为特定范围)。“收敛”指的是误差项达到最小值的时候。以小批量(mini-batches)的形式训练CNN实现更好的性能。
通过显式地执行全神经网络的激活而在输入激活层中的每个中呈现单元高斯分布,可将批规范化(批规范化或者BN)技术应用于神经网络的小批训练。应用该技术通常意味着在全连接层或者卷积/退卷积层之后并且在非线性操作之前紧邻全连接层或者卷积/退卷积层***批规范化层和/或标度层。“批规范化”层指的是施加批规范化变换的层。“标度”层指的是将乘法因数和/或偏移因数施加至输入层,例如y=Ax+B,其中y是输出层,A是乘法因数,B是偏移,以及x是输入层。批规范化技术用于通过执行全网络的激活以呈现单元高斯分布来调整或者规范化神经网络模型,以使得神经网络可负担起更高的学习速率以及更粗糙的参数初始化。当推理概率事件时,批规范化的神经网络应用通过训练所获得的相同的批规范化层和/或标度层。
更复杂的推理任务可能需要处理许多内层。具有附加内层的深度神经网络模型增加了训练时间以及降低了收敛速率。批规范化层和标度层可被引入至激活中的每个,从而减少训练时间以及增加收敛速率。然而,附加批规范化层和标度层降低了推理性能。例如,当ADV“在线”推理事件时,相同批规范化层和/或标度层也被训练过的神经网络模型应用。为了减少诸如批规范化的CNN的批规范化的神经网络模型的计算和存储需要,可由初始CNN模型生成加速CNN模型。在一个实施方式中,例如,神经网络模型生成器123可基于加速层生成加速神经网络模型,其中,加速层进而基于卷积层、批规范化层和/或标度层的组来生成。随后,服务器103可利用加速神经网络模型直接地或者自动地通过网络102更新自动驾驶车辆101。
图3是示出根据本发明一个实施方式的与自动驾驶车辆一起使用的感知与规划***的示例的框图。***300可以被实施为图1的自动驾驶车辆101的一部分,包括但不限于感知与规划***110、控制***111和传感器***115。参考图3,感知与规划***110包括但不限于定位模块301、感知模块302、决策模块303、规划模块304以及控制模块305。
模块301至305中的一些或全部可以在软件、硬件或其组合中实施。例如,这些模块可以安装在永久性存储装置352中、加载到存储器351中,并且由一个或多个处理器(未示出)执行。应注意,这些模块中的一些或全部可以通信地联接到图2的车辆控制***111的一些或全部模块或者与它们集成在一起。模块301至305中的一些可以一起集成为集成模块。
定位模块301确定自动驾驶车辆300的当前位置(例如,利用GPS单元212)以及管理与用户的行程或路线相关的任何数据。定位模块301(也被称为地图和路线模块)管理与用户的行程或路线相关的任何数据。用户可以例如经由用户接口登录并且指定行程的起始位置和目的地。定位模块301与自动驾驶车辆300的诸如地图和路线信息311的其它部件通信,以获得行程相关数据。例如,定位模块301可以从位置服务器和地图与POI(MPOI)服务器获得位置和路线信息。位置服务器提供位置服务,并且MPOI服务器提供地图服务和某些位置的POI,从而可以作为地图和路线信息311的一部分高速缓存。当自动驾驶车辆300沿着路线移动时,定位模块301也可以从交通信息***或服务器获得实时交通信息。
基于由传感器***115提供的传感器数据和由定位模块301获得的定位信息,感知模块302确定对周围环境的感知。感知信息可以表示普通驾驶员在驾驶员正驾驶的车辆周围将感知到的东西。感知可以包括例如采用对象形式的车道配置(例如,直线车道或弯曲车道)、交通灯信号、另一车辆的相对位置、行人、建筑物、人行横道或其它交通相关标志(例如,停止标志、让行标志)等。
感知模块302可以包括计算机视觉***或计算机视觉***的功能,以处理并分析由一个或多个相机采集的图像,从而识别自动驾驶车辆环境中的对象和/或特征。所述对象可以包括交通信号、道路边界、其它车辆、行人和/或障碍物等。计算机视觉***可以使用对象识别算法、视频跟踪以及其它计算机视觉技术。在一些实施方式中,计算机视觉***可以绘制环境地图、跟踪对象以及估算对象的速度等。感知模块302也可以基于由诸如雷达和/或LIDAR的其它传感器提供的其它传感器数据来检测对象。
在一个实施方式中,感知模块302包括探测模块302A和分类模块302B。在一个实施方式中,探测模块302A可通过由传感器***115的一个或多个传感器采集的诸如实时图像数据的传感器数据来探测对象。探测模块302A可使用训练过的深度神经网络模型(作为神经网络模型312的一部分)来探测对象。在另一个实施方式中,训练过的深度神经网络模型可以是由诸如数据分析***103的数据分析***离线创建的加速神经网络模型。在另一个实施方式中,探测模块302A可通过经由地图和路线信息311将对象粗略地定位在由ADV所感知的期待位置和/或角度处来探测对象,例如,根据地图和路线信息311的预设地图信息,当ADV接近具有交通灯的十字路口时,可预料到交通灯出现在ADV的前面。
在一个实施方式中,分类模块302B可将探测模块302A探测的对象分类。分类模块302B从查找表313中查找与探测到的对象相关的神经网络模型(作为神经网络模型312的一部分)。分类模块302B根据探测对象推理分类的可能性。例如,诸如交通灯的探测对象可被分类模块302B分类。分类模块302B将对象分类来输出概率事件,诸如交通灯是红灯、黄灯或者绿灯的概率。
针对每个对象,决策模块303作出关于如何处置对象的决定。例如,针对特定对象(例如,交叉路线中的另一车辆)以及描述对象的元数据(例如,速度、方向、转弯角度),决策模块303决定如何与所述对象相遇(例如,超车、让行、停止、超过)。决策模块303可以根据诸如交通规则或驾驶规则312的规则集合来作出此类决定,所述规则集合可以存储在永久性存储装置352中。
基于针对所感知到的对象中的每个的决定,规划模块304为自动驾驶车辆规划路径或路线以及驾驶参数(例如,距离、速度和/或转弯角度)。换言之,针对给定的对象,决策模块303决定对该对象做什么,而规划模块304确定如何去做。例如,针对给定的对象,决策模块303可以决定超过所述对象,而规划模块304可以确定在所述对象的左侧还是右侧超过。规划和控制数据由规划模块304生成,其包括描述车辆300在下一移动循环(例如,下一路线/路径段)中将如何移动的信息。例如,规划和控制数据可以指示车辆300以30英里每小时(mph)的速度移动10米,随后以25mph的速度变到右侧车道。
基于规划和控制数据,控制模块305根据由规划和控制数据限定的路线或路径通过将适当的命令或信号发送到车辆控制***111来控制并驾驶自动驾驶车辆。所述规划和控制数据包括足够的信息,以沿着路径或路线在不同的时间点使用适当的车辆设置或驾驶参数(例如,油门、制动和转弯命令)将车辆从路线或路径的第一点驾驶到第二点。
应注意,决策模块303和规划模块304可以集成为集成模块。决策模块303/规划模块304可以包括导航***或导航***的功能,以确定自动驾驶车辆的驾驶路径。例如,导航***可以确定用于实现自动驾驶车辆沿着以下路径移动的一系列速度和前进方向:所述路径在使自动驾驶车辆沿着通往最终目的地的基于车行道的路径前进的同时,基本上避免感知到的障碍物。目的地可以根据经由用户接口***113进行的用户输入来设定。导航***可以在自动驾驶车辆正在运行的同时动态地更新驾驶路径。导航***可以将来自GPS***和一个或多个地图的数据合并,以确定用于自动驾驶车辆的驾驶路径。
决策模块303/规划模块304还可以包括防撞***或防撞***的功能,以识别、评估并且避免或以其它方式越过自动驾驶车辆的环境中的潜在障碍物。例如,防撞***可以通过以下方式实现自动驾驶车辆的导航中的变化:操作控制***111中的一个或多个子***来采取变向操纵、转弯操纵、制动操纵等。防撞***可以基于周围的交通模式、道路状况等自动确定可行的障碍物回避操纵。防撞***可以被配置成使得当其它传感器***检测到位于自动驾驶车辆将变向进入的相邻区域中的车辆、建筑障碍物等时不采取变向操纵。防撞***可以自动选择既可使用又使得自动驾驶车辆乘员的安全性最大化的操纵。防撞***可以选择预测能够使自动驾驶车辆的乘客舱中出现最小量的加速度的避让操纵。
永久性存储装置352可包括地图和路线信息311、神经网络模型312和查找表313。地图和路线信息可用于确定一系列导航操作以到达目的地。导航操作可被表示为图中具有表征路线的权重和属性(诸如速度、交通状况、信号、道路类型等)的弧。神经网络模型312可包括深度神经网络模型的多种类型和变型以执行具体的训练功能。查找表313可将对象关联至特定的神经网络模型(作为神经网络模型312的一部分)。在一个实施方式中,神经网络模型312可根据需要经由无线网络从服务器(例如服务器103或者104)下载。
图4是示出根据本发明的一个实施方式的由用于自动驾驶车辆的初始CNN模型402生成的新(或者加速)CNN模型422的框图。初始CNN模型402可以是由诸如服务器103的机器学习引擎122的机器学习引擎训练过的批规范化神经网络。初始CNN模型402可包括许多内层组。图4示出了具有组410和组420的初始CNN模型402。组410具有卷积/退卷积层404、批规范化层406和标度层408。组420具有卷积/退卷积层414、批规范化层416和标度层418。在另一个实施方式中,组410可仅包含卷积/退卷积层404和批规范化层406。在一个实施方式中,新(加速)CNN模型422可包含诸如加速卷积/退卷积层424-428的许多加速卷积/退卷积层。应当注意,CNN模型402不限于卷积神经网络模型,而可以是多种神经网络模型,例如,循环神经网络模型。
根据一些实施方式,服务器/数据分析***可由具有一个或多个批规范化层的初始CNN模型402离线生成诸如新CNN模型422的加速深度CNN。例如,***从初始CNN模型402提取多个第一层组,例如,组410(如果该组包含卷积层的情况下),多个第一组中的每组具有第一卷积层和第一批规范化层。例如,组410具有卷积层404和批规范化层406。对于第一组中的每组,***基于第一批规范化层计算第一标度矢量和第一偏移矢量,以及生成第一加速卷积层。例如,对于组410,***基于批规范化层406计算第一标度矢量和第一偏移矢量,以及生成加速卷积层424。***基于加速卷积层424(加速卷积层424与组410对应)生成新CNN模型422,以使得新CNN模型422随后用于将由自动驾驶车辆感知的对象分类。在一个实施方式中,对于第一组中的每组,***基于对应的第一组的第一批规范化层和第一标度层计算第二标度矢量和第二偏移矢量;以及基于第二标度矢量、第二偏移矢量和第一卷积层生成第二卷积层。例如,对于组410,***基于批规范化层406和标度层408计算第二标度矢量和第二偏移矢量。然后,***基于卷积层404、第二标度矢量和第二偏移矢量生成加速卷积层424。
在一个实施方式中,***从第一CNN模型提取多个第二层组,第二组中的每组具有第一退卷积层和第二批规范化层。例如,***从初始CNN模型402提取多个第二层组,例如,组420(如果该组包含退卷积层的情况下),第二组中的每组具有第一退卷积层和第二批规范化层。例如,组420具有退卷积层414和批规范化层416。对于第二组中的每组,***基于第二批规范化层计算第三标度矢量和第三偏移矢量,以及基于计算的矢量和第一退卷积层生成第二退卷积层,以使得第二CNN模型包括与第二组对应的第二退卷积层。例如,对于组420,***基于批规范化层416计算第三标度矢量和第三偏移矢量,以及生成加速退卷积层428。***基于加速卷积层428(加速卷积层428与组420对应)生成新CNN模型422。在另一个实施方式中,对于第二组中的每组,***基于对应的第二组的第二标度层计算第四标度矢量和第四偏移矢量;以及基于计算的矢量和第一退卷积层生成第二退卷积层。例如,对于组420(组420具有退卷积层),***基于批规范化层416和标度层418计算第四标度矢量和第四偏移矢量。然后***基于退卷积层414、第四标度矢量和第四偏移矢量生成加速卷积层428。
在一个实施方式中,在利用训练数据训练第一CNN模型之后,从第一CNN模型提取出第一层组。在一个实施方式中,第一卷积层和第一批规范化层是连续的层。然后,加速神经网络模型124可被加载至ADV上,从而可实时地用于对象分类。在一个实施方式中,待分类的对象是具有绿色、黄色和红色交通灯的图像。在另一个实施方式中,第一概率事件是待分类的对象是绿灯、黄灯或者红灯的概率事件。
在一个实施方式中,第一卷积层具有多维输入。在另一个实施方式中,针对多维输入中的每个维度标量地计算第一批规范化层。在另一个实施方式中,基于多维输入中的每个维度的平均值以及标准差计算第一标度矢量和第一偏移矢量。在另一个实施方式中,针对多维输入中的每个维度独立地计算平均值和标准差。
图5示出根据本发明的一个实施方式的自动驾驶车辆的神经网络模型生成器(诸如神经网络模型生成器123)的示例。例如,神经网络模型生成器123可包括提取模块123A、矢量计算模块123B、层生成模块123C和神经网络生成模块123D。当通过将批规范化层和/或标度层合并或者增加至初始深度神经网络的内层或者中间激活层而将批规范化变换应用于深度神经网络模型以提高训练灵活性时,训练过的执行推理任务的深度神经网络保留神经网络模型的许多批规范化层和/或标度层。可例如通过由服务器103的神经网络模型生成器123将激活层与批规范化层合并来加速训练的批规范化的深度神经网络。
参照图5,训练过的CNN模型的激活层的权重和偏置可由提取模块123A提取。训练过的CNN模型可以是图4的初始CNN模型502。例如,提取模块123A可以以如下形式提取卷积/退卷积层的权重和偏置:
y1=α1x1+β1;
其中,y1是输出,x1是向卷积/退卷积层的输入,α1是层的权重,以及β1是层的偏置。在另一个示例中,提取模块123A可以以如下形式提取与批规范化层相关的平均值和标准差值:
其中,y1是批规范化层的输入或者卷积/退卷积层的输出,mean(y1)是y1的平均值,std(y1)是y1的标准差,以及y2是批规范化层的输出。应注意,对于训练过的深度神经网络,平均值以及标准差是已知的值(例如,它们不依赖y1的值)。
在另一个示例中,提取模块123A可以以如下形式提取标度层的标度/偏移因数:
y3=α2y2+β2;
其中,y2是标度层的输入或者批规范化层的输出,y3是标度层的输出,以及α2是标度层的标度因数,以及β2是标度层的偏移因数。在以上示例中,提取的参数可与训练过的深度CNN模型的任何单个激活对应。
图6A是示出根据一个实施方式的从初始深度神经网络模型提取层的示例的框图。诸如初始深度神经网络模型610的训练过的初始深度神经网络模型被输入至卷积/退卷积-批规范化-标度层提取器612(可由图5的提取模块123A执行)。卷积/退卷积-批规范化-标度层提取器612提取组614。组614可具有初始深度神经网络模型610的卷积/退卷积层、批规范化层以及标度层的许多组。
图6B是示出根据一个实施方式的由初始深度神经网络模型生成加速卷积/退卷积层的示例的框图。训练过的深度神经网络模型、初始CNN模型402包括组410至组420。虽然仅示出了两个组,但是更多组可被包括在初始模型中。每个组410包括卷积或退卷积层、批规范化层和标度层。在该示例中,组410包括卷积或退卷积层404、批规范化层406和标度层408。相似地,诸如组420的其它组可包括相同的层。批规范化层601的标度矢量和/或偏移矢量从批规范化层406计算得出。标度层602的标度矢量和/或偏移矢量从标度层408计算得出。批规范化层601的标度矢量和/或偏移矢量以及标度层602的标度矢量和/或偏移矢量被合并成合并的批规范化/标度层603的标度矢量和/或偏移矢量。加速卷积/退卷积层424由合并的批规范化/标度层603的标度矢量和/或偏移矢量以及卷积/退卷积层404生成。在另一个实施方式中,加速卷积/退卷积层424可由批规范化层601的标度矢量和/或偏移矢量以及卷积/退卷积层404生成。
返回参考图5,在一个实施方式中,因为层组的批规范化层和标度层是线性变换,所以矢量计算模块123B可计算这些层的对应的矢量。矢量计算模块123B可计算批规范化层或者批规范化层和标度层的全部标度矢量和全部偏移矢量。例如,表示批规范化层的标度矢量(scale vector)和偏移矢量(shift vector)是如下形式:
其中,mean(y1)是y1的输出的平均值,以及std(y1)是y1的标准差。表示批规范化层和标度层的标度矢量和偏移矢量是如下形式:
其中,mean(y1)是y1的输出的平均值,以及std(y1)是y1的标准差,以及α2是标度层的标度因数,以及β2是标度层的偏移因数。层生成模块123C可将卷积/退卷积层和与层组对应的标度矢量和偏移矢量合并,从而形成与层组对应的加速层。
图7A是根据本发明的一个实施方式的由初始CNN模型的提取层生成加速卷积层的示例的框图。初始卷积层710、标度矢量712和偏移矢量714被馈送至加速卷积层生成器716(可由诸如图5的层生成模块123C的模块执行)从而生成加速卷积层718。
图7B是根据本发明的一个实施方式的由初始CNN模型的提取层生成加速退卷积层的示例的框图。初始退卷积层720、标度矢量722和偏移矢量724被馈送至加速退卷积层生成器726(可由诸如图5的层生成模块123C的模块执行)从而生成加速退卷积层728。
参照图7A-7B,例如,加速卷积/退卷积层生成器716可生成表示如下形式的单个加速层的权重和偏置:
y=αox+β0;
其中,x是加速层的输入,y是加速层的输出,α0是加速层的权重,以及β0是加速层的偏置。加速层可表示初始CNN模型的层组(例如,初始卷积/退卷积层、批规范化层和标度层)。
在一个实施方式中,加速卷积层718(或者加速退卷积层728)是由卷积层710(或者退卷积层720)与表示对应的批规范化层的标度矢量712(或者标度矢量722)合并而成的,以使得:
以及
其中,α0是加速卷积层718(或者加速退卷积层728)的权重,β0是加速卷积层718(或者加速退卷积层728)的偏置,y1是输出,α1是卷积层710(或者退卷积层720)的权重,以及β1是卷积层710(或者退卷积层720)的偏置,mean(y1)是y1的输出的平均值,以及std(y1)是y1的标准差。应注意,一旦CNN模型被训练过,则mean(y1)和std(y1)是固定常数并且不依赖y1。在另一个实施方式中,多重加速层可由训练过的CNN模型的卷积/退卷积层的组和批规范化层的组生成。在另一个实施方式中,加速CNN模型基于生成的加速层而生成,以使得加速CNN模型随后用于将由自动驾驶车辆感知的对象分类。
在一个实施方式中,加速卷积层718(或者加速退卷积层728)是以如下形式由卷积层710(或者退卷积层720)、标度矢量712(或者标度矢量722)和偏移矢量714(或者偏移矢量724)合并而成的:
以及
其中,α0是加速卷积层718(或者加速退卷积层728)的权重,β0是加速卷积层718(或者加速退卷积层728)的偏置,y1是输出,α1是卷积层710(或者退卷积层720)的权重,以及β1是卷积层710(或者退卷积层720)的偏置,mean(y1)是y1的输出的平均值,以及std(y1)是y1的标准差,以及α2是标度层的标度因数并且β2是标度层的偏移因数。
应注意,一旦CNN模型被训练过,则mean(y1)和std(y1)是固定常数以及不依赖y1。在另一个实施方式中,诸如图5的加速卷积/退卷积层524-528的多重加速层可由训练过的CNN模型的卷积/退卷积层、批规范化层以及标度层的组生成。在另一个实施方式中,诸如图5的新CNN模型522的加速CNN模型可基于对应的加速层由图3的神经网络生成模块123D生成,以使得加速CNN模型随后用于将由自动驾驶车辆感知的对象分类。
应注意,CNN模型中的层的输入和输出是多维输入和输出。还应注意,上述处理可由诸如数据分析***103的数据分析***离线执行,从而将初始CNN模型的层的每组转换成单个层,以及生成新CNN模型。新CNN模型随后被加载在ADV上以及用于实时将由ADV的传感器采集的对象分类。每种类型的对象可由具体的CNN模型分类。
图8是示出根据本发明的一个实施方式的感知模块800的示例的框图。感知模块800可以是图3的感知模块302。感知模块800可包括探测器804和分类器806。探测器804和分类器806通信联接至训练过的神经网络模型810。训练过的神经网络模型810可包括加速神经网络模型812-816。在一个实施方式中,ADV可在感知模块800的探测器804处接收输入数据802(诸如由相机采集的图像数据的传感器数据)。
探测器804从输入数据探测一种或多种类型的对象。感知模块800基于探测到的对象的类型在查找表或者其它数据结构中查找,从而确定可用于将探测到的对象的类型分类的加速神经网络模型。对应的加速神经网络模型(作为训练过的神经网络模型810的一部分)随后被分类器806用来将探测到的对象分类以推理概率事件808。例如,探测器804可探测到对象是交通灯。对应的加速CNN模型812被检索,并且分类器806利用对应的加速CNN模型812将交通灯分类以推理概率事件808。概率808可包括探测到的对象是红灯、黄灯或者绿灯的概率。
图9是示出根据本发明的一个实施方式的由初始CNN模型生成新CNN模型的方法的流程图。过程900可由可包括软件、硬件或者其组合的处理逻辑执行。例如,过程900可由诸如数据分析***103的数据分析***执行(例如,离线执行)。新CNN模型随后可被ADV用于实时将对象分类。参照图9,在框902,处理逻辑从第一卷积神经网络(CNN)模型提取第一层组,每个第一组具有第一卷积层和第一批规范化层。在框904,对于第一组中的每组,处理逻辑基于第一批规范化层计算第一标度矢量和第一偏移矢量。在框906,处理逻辑基于第一卷积层、第一标度矢量和第一偏移矢量生成表示对应的组的第二卷积层。在框908,处理逻辑基于与多个组对应的第二卷积层生成第二CNN模型。第二CNN模型随后用于来将由自动驾驶车辆感知的对象分类。
在一个实施方式中,对于第一组中的每组,***基于对应的组的第一批规范化层和第一标度层计算第二标度矢量和第二偏移矢量;以及基于第二标度矢量、第二偏移矢量和第一卷积层生成第二卷积层。
在一个实施方式中,***从第一CNN模型提取多个第二层组,每个第二组具有第一退卷积层和第二批规范化层。对于第二组中的每组,***基于第二批规范化层计算第三标度矢量和第三偏移矢量,以及基于第三标度矢量、第三偏移矢量和第二批规范化层生成第二退卷积层,以使得第二CNN模型包括与第二组对应的第二退卷积层。在另一个实施方式中,对于第二组中的每组,***基于对应的第二组的第二标度层计算第三标度矢量和第三偏移矢量;以及基于第三标度矢量、第三偏移矢量和第一退卷积层生成第二退卷积层。
在一个实施方式中,在利用训练数据训练第一CNN模型之后,从第一CNN模型提取出第一层组。在一个实施方式中,第一卷积层和第一批规范化层是连续的层。
在一个实施方式中,待分类的对象是具有绿色、黄色和红色的交通灯的图像。在另一个实施方式中,第一概率事件是待分类的对象是绿灯、黄灯或者红灯的概率事件。
在一个实施方式中,第一卷积层具有多维输入。在另一个实施方式中,针对多维输入中的每个维度标量地计算第一标度矢量和第一偏移矢量。在另一个实施方式中,基于多维输入中的每个维度的平均值以及标准差计算第一标度矢量和第一偏移矢量。在另一个实施方式中,针对多维输入中的每个维度独立地计算平均值和标准差。
应注意,如上文示出和描述的部件中的一些或全部可以在软件、硬件或其组合中实施。例如,此类部件可以实施为安装并存储在永久性存储装置中的软件,所述软件可以通过处理器(未示出)加载在存储器中并在存储器中执行以实施本申请全文中所述的过程或操作。替代地,此类部件可以实施为编程或嵌入到专用硬件(诸如,集成电路(例如,专用集成电路或ASIC)、数字信号处理器(DSP)或现场可编程门阵列(FPGA))中的可执行代码,所述可执行代码可以经由来自应用的相应驱动程序和/或操作***来访问。此外,此类部件可以实施为处理器或处理器内核中的特定硬件逻辑,作为可由软件部件通过一个或多个特定指令访问的指令集的一部分。
图10是示出可以与本发明的一个实施方式一起使用的数据处理***的示例的框图。例如,***1500可以表示以上所述的执行上述过程或方法中的任一个的任何数据处理***,例如,图1的服务器103至104中的任一个。***1500可以包括许多不同的部件。这些部件可以实施为集成电路(IC)、集成电路的部分、分立电子装置或适用于电路板(诸如,计算机***的主板或插接卡)的其它模块或者实施为以其它方式并入计算机***的机架内的部件。
还应注意,***1500旨在示出计算机***的许多部件的高阶视图。然而,应当理解的是,某些实施例中可以具有附加的部件,此外,其它实施例中可以具有所示部件的不同布置。***1500可以表示台式计算机、膝上型计算机、平板计算机、服务器、移动电话、媒体播放器、个人数字助理(PDA)、智能手表、个人通信器、游戏装置、网络路由器或集线器、无线接入点(AP)或中继器、机顶盒或其组合。此外,虽然仅示出了单个机器或***,但是术语“机器”或“***”还应当被理解为包括单独地或共同地执行一个(或多个)指令集以执行本文所讨论的任何一种或多种方法的机器或***的任何集合。
在一个实施方式中,***1500包括通过总线或互连件1510连接的处理器1501、存储器1503以及装置1505至1508。处理器1501可以表示其中包括单个处理器内核或多个处理器内核的单个处理器或多个处理器。处理器1501可以表示一个或多个通用处理器,诸如,微处理器、中央处理单元(CPU)等。更具体地,处理器1501可以是复杂指令集计算(CISC)微处理器、精简指令集计算(RISC)微处理器、超长指令字(VLIW)微处理器、或实施其它指令集的处理器、或实施指令集组合的处理器。处理器1501还可以是一个或多个专用处理器,诸如,专用集成电路(ASIC)、蜂窝或基带处理器、现场可编程门阵列(FPGA)、数字信号处理器(DSP)、网络处理器、图形处理器、通信处理器、加密处理器、协处理器、嵌入式处理器,或者能够处理指令的任何其它类型的逻辑。
处理器1501(其可以是低功率多核处理器套接口,诸如超低电压处理器)可以充当用于与所述***的各种部件通信的主处理单元和中央集线器。这种处理器可以实施为片上***(SoC)。处理器1501被配置成执行用于执行本文所讨论的操作和步骤的指令。***1500还可以包括与可选的图形子***1504通信的图形接口,图形子***1504可以包括显示控制器、图形处理器和/或显示装置。
处理器1501可以与存储器1503通信,存储器1503在一个实施方式中可以经由多个存储器装置实施以提供给定量的***存储。存储器1503可以包括一个或多个易失性存储(或存储器)装置,诸如,随机存取存储器(RAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、静态RAM(SRAM)或者其它类型的存储装置。存储器1503可以存储包括由处理器1501或任何其它装置执行的指令序列的信息。例如,各种操作***、装置驱动程序、固件(例如,输入输出基本***或BIOS)和/或应用的可执行代码和/或数据可以加载到存储器1503中并由处理器1501执行。操作***可以是任何类型的操作***,例如,机器人操作***(ROS)、来自公司的操作***、来自苹果公司的Mac来自公司的LINUX、UNIX、或者其它实时或嵌入式操作***。
***1500还可以包括IO装置,诸如装置1505至1508,包括网络接口装置1505、可选的输入装置1506,以及其它可选的IO装置1507。网络接口装置1505可以包括无线收发器和/或网络接口卡(NIC)。所述无线收发器可以是WiFi收发器、红外收发器、蓝牙收发器、WiMax收发器、无线蜂窝电话收发器、卫星收发器(例如,全球定位***(GPS)收发器)或其它射频(RF)收发器或者它们的组合。NIC可以是以太网卡。
输入装置1506可以包括鼠标、触摸板、触敏屏幕(其可以与显示装置1504集成在一起)、指针装置(诸如,手写笔)和/或键盘(例如,物理键盘或作为触敏屏幕的一部分显示的虚拟键盘)。例如,输入装置1506可以包括联接到触摸屏的触摸屏控制器。触摸屏和触摸屏控制器例如可以使用多种触敏技术(包括但不限于电容、电阻、红外和表面声波技术)中的任一种,以及其它接近传感器阵列或用于确定与触摸屏接触的一个或多个点的其它元件来检测其接触和移动或间断。
IO装置1507可以包括音频装置。音频装置可以包括扬声器和/或麦克风,以促进支持语音的功能,诸如语音识别、语音复制、数字记录和/或电话功能。其它IO装置1507还可以包括通用串行总线(USB)端口、并行端口、串行端口、打印机、网络接口、总线桥(例如,PCI-PCI桥)、传感器(例如,诸如加速度计的运动传感器、陀螺仪、磁强计、光传感器、罗盘、接近传感器等)或者它们的组合。装置1507还可以包括成像处理子***(例如,相机),所述成像处理子***可以包括用于促进相机功能(诸如,记录照片和视频片段)的光学传感器,诸如电荷耦合装置(CCD)或互补金属氧化物半导体(CMOS)光学传感器。某些传感器可以经由传感器集线器(未示出)联接到互连件1510,而诸如键盘或热传感器的其它装置可以根据***1500的具体配置或设计由嵌入式控制器(未示出)控制。
为了提供诸如数据、应用、一个或多个操作***等信息的永久性存储,大容量存储设备(未示出)也可以联接到处理器1501。在各种实施方式中,为了实现更薄且更轻的***设计并且改进***响应性,这种大容量存储设备可以经由固态装置(SSD)来实施。然而,在其它实施方式中,大容量存储设备可以主要使用硬盘驱动器(HDD)来实施,其中较小量的SSD存储设备充当SSD高速缓存以在断电事件期间实现上下文状态以及其它此类信息的非易失性存储,从而使得在***活动重新启动时能够实现快速通电。另外,闪存装置可以例如经由串行***接口(SPI)联接到处理器1501。这种闪存装置可以提供***软件的非易失性存储,所述***软件包括所述***的BIOS以及其它固件。
存储装置1508可以包括计算机可访问的存储介质1509(也被称为机器可读存储介质或计算机可读介质),其上存储有体现本文所述的任何一种或多种方法或功能的一个或多个指令集或软件(例如,模块、单元和/或逻辑1528)。处理模块/单元/逻辑1528可以表示上述部件中的任一个,例如感知模块302。处理模块/单元/逻辑1528还可以在其由数据处理***1500、存储器1503和处理器1501执行期间完全地或至少部分地驻留在存储器1503内和/或处理器1501内,数据处理***1500、存储器1503和处理器1501也构成机器可访问的存储介质。处理模块/单元/逻辑1528还可以通过网络经由网络接口装置1505进行传输或接收。
计算机可读存储介质1509也可以用来永久性地存储以上描述的一些软件功能。虽然计算机可读存储介质1509在示例性实施方式中被示为单个介质,但是术语“计算机可读存储介质”应当被认为包括存储所述一个或多个指令集的单个介质或多个介质(例如,集中式或分布式数据库和/或相关的高速缓存和服务器)。术语“计算机可读存储介质”还应当被认为包括能够存储或编码指令集的任何介质,所述指令集用于由机器执行并且使得所述机器执行本发明的任何一种或多种方法。因此,术语“计算机可读存储介质”应当被认为包括但不限于固态存储器以及光学介质和磁性介质,或者任何其它非暂时性机器可读介质。
本文所述的处理模块/单元/逻辑1528、部件以及其它特征可以实施为分立硬件部件或集成在硬件部件(诸如,ASICS、FPGA、DSP或类似装置)的功能中。此外,处理模块/单元/逻辑1528可以实施为硬件装置内的固件或功能电路。此外,处理模块/单元/逻辑1528可以以硬件装置和软件部件的任何组合来实施。
应注意,虽然***1500被示出为具有数据处理***的各种部件,但是并不旨在表示使部件互连的任何特定架构或方式;因为此类细节和本发明的实施方式没有密切关系。还应当认识到,具有更少部件或可能具有更多部件的网络计算机、手持计算机、移动电话、服务器和/或其它数据处理***也可以与本发明的实施方式一起使用。
前述详细描述中的一些部分已经根据在计算机存储器内对数据位的运算的算法和符号表示而呈现。这些算法描述和表示是数据处理领域中的技术人员所使用的方式,以将他们的工作实质最有效地传达给本领域中的其他技术人员。本文中,算法通常被认为是导致所期望结果的自洽操作序列。这些操作是指需要对物理量进行物理操控的操作。
然而,应当牢记,所有这些和类似的术语均旨在与适当的物理量关联,并且仅仅是应用于这些量的方便标记。除非在以上讨论中以其它方式明确地指出,否则应当了解,在整个说明书中,利用术语(诸如所附权利要求书中所阐述的术语)进行的讨论是指计算机***或类似电子计算装置的动作和处理,所述计算机***或电子计算装置操控计算机***的寄存器和存储器内的表示为物理(电子)量的数据,并将所述数据变换成计算机***存储器或寄存器或者其它此类信息存储设备、传输或显示装置内类似地表示为物理量的其它数据。
本发明的实施方式还涉及用于执行本文中的操作的设备。这种计算机程序被存储在非暂时性计算机可读介质中。机器可读介质包括用于以机器(例如,计算机)可读的形式存储信息的任何机构。例如,机器可读(例如,计算机可读)介质包括机器(例如,计算机)可读存储介质(例如,只读存储器(“ROM”)、随机存取存储器(“RAM”)、磁盘存储介质、光存储介质、闪存存储器装置)。
前述附图中所描绘的过程或方法可以由处理逻辑来执行,所述处理逻辑包括硬件(例如,电路、专用逻辑等)、软件(例如,体现在非暂时性计算机可读介质上)或两者的组合。尽管所述过程或方法在上文是依据一些顺序操作来描述的,但是应当了解,所述操作中的一些可以按不同的顺序执行。此外,一些操作可以并行地执行而不是顺序地执行。
本发明的实施方式并未参考任何特定的编程语言进行描述。应认识到,可以使用多种编程语言来实施如本文描述的本发明的实施方式的教导。
在以上的说明书中,已经参考本发明的具体示例性实施方式对本发明的实施方式进行了描述。将显而易见的是,在不脱离所附权利要求书中阐述的本发明的更宽泛精神和范围的情况下,可以对本发明作出各种修改。因此,应当在说明性意义而不是限制性意义上来理解本说明书和附图。
Claims (20)
1.计算机实施的方法,所述方法包括:
从第一卷积神经网络模型提取多个第一层组,所述多个第一层组中的每组具有第一卷积层和第一批规范化层;
对于所述多个第一层组中的每组,
基于所述第一批规范化层计算第一标度矢量和第一偏移矢量,以及
基于所述第一卷积层、所述第一标度矢量和所述第一偏移矢量生成表示所述多个第一层组中的对应的组的第二卷积层;以及
基于与所述多个第一层组对应的第二卷积层生成第二卷积神经网络模型,其中,所述第二卷积神经网络模型随后用于将由自动驾驶车辆感知的对象分类。
2.根据权利要求1所述的计算机实施的方法,还包括:
对于所述多个第一层组中的每组,
基于所述多个第一层组中的对应的组的第一批规范化层和第一标度层计算第二标度矢量和第二偏移矢量;以及
基于所述第二标度矢量、所述第二偏移矢量和所述第一卷积层生成所述第二卷积层。
3.根据权利要求1所述的计算机实施的方法,还包括:
从所述第一卷积神经网络模型提取多个第二层组,所述多个第二层组中的每组具有第一退卷积层和第二批规范化层;
对于所述多个第二层组中的每组,
基于所述第二批规范化层计算第三标度矢量和第三偏移矢量,以及
基于所述第三标度矢量和所述第三偏移矢量以及所述第一退卷积层生成表示所述多个第二层组中的对应的组的第二退卷积层,其中,所述第二卷积神经网络模型包括与所述多个第二层组对应的第二退卷积层。
4.根据权利要求3所述的计算机实施的方法,还包括:
对于所述多个第二层组中的每组,
基于所述多个第二层组中的对应的组的第二批规范化层和第二标度层计算第四标度矢量和第四偏移矢量;以及
基于所述第四标度矢量、所述第四偏移矢量和所述第一退卷积层生成所述第二退卷积层。
5.根据权利要求1所述的计算机实施的方法,其中,所述第一卷积层具有多维输入。
6.根据权利要求5所述的计算机实施的方法,其中,针对所述多维输入中的每个维度标量地计算所述第一标度矢量和所述第一偏移矢量。
7.根据权利要求6所述的计算机实施的方法,其中,基于所述多维输入中的每个维度的平均值和标准差计算所述第一标度矢量和所述第一偏移矢量。
8.根据权利要求7所述的计算机实施的方法,其中,针对所述多维输入中的每个维度独立地计算所述平均值和所述标准差。
9.非暂时性机器可读介质,所述非暂时性机器可读介质存储有指令,所述指令当被处理器执行时,致使所述处理器执行操作,所述操作包括:
从第一卷积神经网络模型提取多个第一层组,所述多个第一层组中的每组具有第一卷积层和第一批规范化层;
对于所述多个第一层组中的每组,
基于所述第一批规范化层计算第一标度矢量和第一偏移矢量,以及
基于所述第一卷积层、所述第一标度矢量和所述第一偏移矢量生成表示所述多个第一层组中的对应的组的第二卷积层;以及
基于与所述多个第一层组对应的第二卷积层生成第二卷积神经网络模型,其中,所述第二卷积神经网络模型随后用于将由自动驾驶车辆感知的对象分类。
10.根据权利要求9所述的非暂时性机器可读介质,还包括:
对于所述多个第一层组中的每组,
基于所述多个第一层组中的对应的组的第一批规范化层和第一标度层计算第二标度矢量和第二偏移矢量;以及
基于所述第二标度矢量、所述第二偏移矢量和所述第一卷积层生成所述第二卷积层。
11.根据权利要求9所述的非暂时性机器可读介质,还包括:
从所述第一卷积神经网络模型提取多个第二层组,所述多个第二层组中的每组具有第一退卷积层和第二批规范化层;
对于所述多个第二层组中的每组,
基于所述第二批规范化层计算第三标度矢量和第三偏移矢量,以及
基于所述第三标度矢量和所述第三偏移矢量以及所述第一退卷积层生成表示所述多个第二层组中的对应的组的第二退卷积层,其中,所述第二卷积神经网络模型包括与所述多个第二层组对应的第二退卷积层。
12.根据权利要求11所述的非暂时性机器可读介质,还包括:
对于所述多个第二层组中的每组,
基于所述多个第二层组中的对应的组的第二标度层计算第四标度矢量和第四偏移矢量;以及
基于所述第四标度矢量、所述第四偏移矢量和所述第一退卷积层生成所述第二退卷积层。
13.根据权利要求9所述的非暂时性机器可读介质,其中,所述第一卷积层具有多维输入。
14.根据权利要求13所述的非暂时性机器可读介质,其中,针对所述多维输入中的每个维度标量地计算所述第一标度矢量和所述第一偏移矢量。
15.根据权利要求14所述的非暂时性机器可读介质,基于所述多维输入中的每个维度的平均值和标准差计算所述第一标度矢量和所述第一偏移矢量。
16.根据权利要求15所述的非暂时性机器可读介质,其中,针对所述多维输入中的每个维度独立地计算所述平均值和所述标准差。
17.数据处理***,包括:
处理器,以及
存储器,所述存储器联接至所述处理器以存储指令,其中,当所述指令被所述处理器执行时,致使所述处理器执行操作,所述操作包括:
从第一卷积神经网络模型提取多个第一层组,所述多个第一层组中的每组具有第一卷积层和第一批规范化层;
对于所述多个第一层组中的每组,
基于所述第一批规范化层计算第一标度矢量和第一偏移矢量,以及
基于所述第一卷积层、所述第一标度矢量和所述第一偏移矢量生成表示所述多个第一层组中的对应的组的第二卷积层;以及
基于与所述多个第一层组对应的第二卷积层生成第二卷积神经网络模型,其中,所述第二卷积神经网络模型随后用于将由自动驾驶车辆感知的对象分类。
18.根据权利要求17所述的***,还包括:
对于所述多个第一层组中的每组,
基于所述多个第一层组中的对应的组的第一批规范化层和第一标度层计算第二标度矢量和第二偏移矢量;以及
基于所述第二标度矢量、所述第二偏移矢量和所述第一卷积层生成所述第二卷积层。
19.根据权利要求17所述的***,还包括:
从所述第一卷积神经网络模型提取多个第二层组,所述多个第二层组中的每组具有第一退卷积层和第二批规范化层;
对于所述多个第二层组中的每组,
基于所述第二批规范化层计算第三标度矢量和第三偏移矢量,以及
基于所述第三标度矢量和所述第三偏移矢量以及所述第一退卷积层生成表示所述多个第二层组中的对应的组的第二退卷积层,其中,所述第二卷积神经网络模型包括与所述第二层组对应的第二退卷积层。
20.根据权利要求19所述的***,还包括:
对于所述多个第二层组中的每组,
基于所述多个第二层组中的对应的组的第二批规范化层和第二标度层计算第四标度矢量和第四偏移矢量;以及
基于所述第四标度矢量、所述第四偏移矢量和所述第一退卷积层生成所述第二退卷积层。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/451,345 | 2017-03-06 | ||
US15/451,345 US11308391B2 (en) | 2017-03-06 | 2017-03-06 | Offline combination of convolutional/deconvolutional and batch-norm layers of convolutional neural network models for autonomous driving vehicles |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108537326A true CN108537326A (zh) | 2018-09-14 |
CN108537326B CN108537326B (zh) | 2022-05-13 |
Family
ID=61580975
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810184840.6A Active CN108537326B (zh) | 2017-03-06 | 2018-03-06 | 用于自动驾驶车辆的方法、介质和*** |
Country Status (4)
Country | Link |
---|---|
US (1) | US11308391B2 (zh) |
EP (1) | EP3373200B1 (zh) |
JP (1) | JP6653343B2 (zh) |
CN (1) | CN108537326B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110007598A (zh) * | 2019-04-09 | 2019-07-12 | 吉林大学 | 一种基于代理模型的自动变速器控制参数预标定方法 |
JP2020061140A (ja) * | 2018-10-05 | 2020-04-16 | 株式会社ストラドビジョン | ブラインドスポットモニタリングのためのcnnの学習方法、テスティング方法、学習装置、及びテスティング装置 |
CN111259712A (zh) * | 2018-11-30 | 2020-06-09 | 百度(美国)有限责任公司 | 用于车辆行为预测的压缩环境特征的表示 |
WO2020119363A1 (zh) * | 2018-12-13 | 2020-06-18 | 华为技术有限公司 | 自动驾驶方法、训练方法及相关装置 |
WO2020134828A1 (zh) * | 2018-12-27 | 2020-07-02 | 深圳云天励飞技术有限公司 | 一种神经网络推理结构优化方法及装置 |
CN111507160A (zh) * | 2019-01-31 | 2020-08-07 | 斯特拉德视觉公司 | 集成从执行协同驾驶的车辆获取的行驶图像的方法及装置 |
CN113408325A (zh) * | 2020-03-17 | 2021-09-17 | 北京百度网讯科技有限公司 | 车辆周围环境的识别方法、装置及相关设备 |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2675767C1 (ru) * | 2015-04-23 | 2018-12-24 | Ниссан Мотор Ко., Лтд. | Устройство для определения степени риска столкновения с препятсвием |
CN108628904B (zh) * | 2017-03-23 | 2021-03-02 | 北京嘀嘀无限科技发展有限公司 | 一种路径编码、相似路径检索方法及装置和电子设备 |
US11392133B2 (en) | 2017-06-06 | 2022-07-19 | Plusai, Inc. | Method and system for object centric stereo in autonomous driving vehicles |
US11042155B2 (en) * | 2017-06-06 | 2021-06-22 | Plusai Limited | Method and system for closed loop perception in autonomous driving vehicles |
US11573573B2 (en) | 2017-06-06 | 2023-02-07 | Plusai, Inc. | Method and system for distributed learning and adaptation in autonomous driving vehicles |
US10438074B2 (en) * | 2017-06-14 | 2019-10-08 | Baidu Usa Llc | Method and system for controlling door locks of autonomous driving vehicles based on lane information |
US10395144B2 (en) * | 2017-07-24 | 2019-08-27 | GM Global Technology Operations LLC | Deeply integrated fusion architecture for automated driving systems |
US11875260B2 (en) * | 2018-02-13 | 2024-01-16 | Adobe Inc. | Reducing architectural complexity of convolutional neural networks via channel pruning |
KR102637339B1 (ko) * | 2018-08-31 | 2024-02-16 | 삼성전자주식회사 | 음성 인식 모델을 개인화하는 방법 및 장치 |
US11325252B2 (en) * | 2018-09-15 | 2022-05-10 | X Development Llc | Action prediction networks for robotic grasping |
CN109242092B (zh) * | 2018-09-29 | 2021-02-12 | 深圳市商汤科技有限公司 | 图像处理方法和装置、电子设备、存储介质 |
US10311321B1 (en) * | 2018-10-26 | 2019-06-04 | StradVision, Inc. | Learning method, learning device using regression loss and testing method, testing device using the same |
US11144788B2 (en) * | 2018-12-04 | 2021-10-12 | Here Global B.V. | Method and apparatus for providing a low-power perception architecture |
JP7214873B2 (ja) * | 2018-12-21 | 2023-01-30 | ウェイモ エルエルシー | 自律型車両のセンサデータリポジトリの検索 |
KR102350181B1 (ko) * | 2019-01-30 | 2022-01-11 | 바이두닷컴 타임즈 테크놀로지(베이징) 컴퍼니 리미티드 | 자율 주행 차량에서 rnn 및 lstm을 사용하여 시간적 평활화를 수행하는 lidar 위치 추정 |
CN113498391B (zh) * | 2019-03-08 | 2023-05-16 | 马自达汽车株式会社 | 汽车用运算装置 |
CN110007675B (zh) * | 2019-04-12 | 2021-01-15 | 北京航空航天大学 | 一种基于行车态势图的车辆自动驾驶决策***及基于无人机的训练集制备方法 |
US11776072B2 (en) * | 2019-04-25 | 2023-10-03 | Shibaura Machine Co., Ltd. | Machine learning method, information processing device, computer program product, and additive manufacturing monitoring system |
JP7231511B2 (ja) * | 2019-07-29 | 2023-03-01 | 株式会社日立製作所 | 管理装置、管理方法、および管理プログラム |
US11620492B2 (en) * | 2019-08-27 | 2023-04-04 | Nec Corporation | Flexible edge-empowered graph convolutional networks with node-edge enhancement |
JP7221839B2 (ja) * | 2019-10-08 | 2023-02-14 | 国立大学法人静岡大学 | 自律移動ロボットおよび自律移動ロボットの制御プログラム |
US20220114413A1 (en) * | 2020-10-12 | 2022-04-14 | Black Sesame International Holding Limited | Integer-based fused convolutional layer in a convolutional neural network |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106056628A (zh) * | 2016-05-30 | 2016-10-26 | 中国科学院计算技术研究所 | 基于深度卷积神经网络特征融合的目标跟踪方法及*** |
CN106407931A (zh) * | 2016-09-19 | 2017-02-15 | 杭州电子科技大学 | 一种新型深度卷积神经网络运动车辆检测方法 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7082394B2 (en) * | 2002-06-25 | 2006-07-25 | Microsoft Corporation | Noise-robust feature extraction using multi-layer principal component analysis |
EP1774780A1 (en) * | 2004-07-20 | 2007-04-18 | QUALCOMM Incorporated | Method and apparatus for motion vector processing |
JP5772442B2 (ja) * | 2011-09-22 | 2015-09-02 | 富士ゼロックス株式会社 | 画像処理装置及び画像処理プログラム |
ES2714152T3 (es) | 2015-01-28 | 2019-05-27 | Google Llc | Capas de normalización por lotes |
CN104700099B (zh) * | 2015-03-31 | 2017-08-11 | 百度在线网络技术(北京)有限公司 | 识别交通标志的方法和装置 |
JP2016197389A (ja) * | 2015-04-03 | 2016-11-24 | 株式会社デンソーアイティーラボラトリ | 学習システム、学習プログラムおよび学習方法 |
RU2686030C1 (ru) * | 2015-07-24 | 2019-04-23 | Дипмайнд Текнолоджиз Лимитед | Непрерывное управление с помощью глубокого обучения с подкреплением |
JP2018527660A (ja) | 2015-07-29 | 2018-09-20 | ノキア テクノロジーズ オーユー | ニューラルネットワークによるオブジェクト検出 |
EP3582151A1 (en) * | 2015-08-15 | 2019-12-18 | Salesforce.com, Inc. | Three-dimensional (3d) convolution with 3d batch normalization |
CN116468070A (zh) * | 2015-11-12 | 2023-07-21 | 渊慧科技有限公司 | 使用规范化的目标输出训练神经网络 |
CN106372571A (zh) * | 2016-08-18 | 2017-02-01 | 宁波傲视智绘光电科技有限公司 | 路面交通标志检测与识别方法 |
AU2017317599B2 (en) * | 2016-08-22 | 2021-12-23 | Magic Leap, Inc. | Augmented reality display device with deep learning sensors |
EP3510594B1 (en) * | 2016-10-10 | 2020-07-01 | Google LLC | Very deep convolutional neural networks for end-to-end speech recognition |
US10685285B2 (en) * | 2016-11-23 | 2020-06-16 | Microsoft Technology Licensing, Llc | Mirror deep neural networks that regularize to linear networks |
GB2573221B (en) * | 2016-12-05 | 2023-04-19 | Motorola Solutions Inc | System and method for CNN layer sharing |
US10915817B2 (en) * | 2017-01-23 | 2021-02-09 | Fotonation Limited | Method of training a neural network |
-
2017
- 2017-03-06 US US15/451,345 patent/US11308391B2/en active Active
-
2018
- 2018-03-06 CN CN201810184840.6A patent/CN108537326B/zh active Active
- 2018-03-06 EP EP18160192.3A patent/EP3373200B1/en active Active
- 2018-03-06 JP JP2018039360A patent/JP6653343B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106056628A (zh) * | 2016-05-30 | 2016-10-26 | 中国科学院计算技术研究所 | 基于深度卷积神经网络特征融合的目标跟踪方法及*** |
CN106407931A (zh) * | 2016-09-19 | 2017-02-15 | 杭州电子科技大学 | 一种新型深度卷积神经网络运动车辆检测方法 |
Non-Patent Citations (1)
Title |
---|
SERGEY IOFFE等: "Batch Normalization:Accelerating Deep Network Training by Reducing Internal Covariate Shift", 《HTTPS://ARXIV.ORG/ABS/1502.03167》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020061140A (ja) * | 2018-10-05 | 2020-04-16 | 株式会社ストラドビジョン | ブラインドスポットモニタリングのためのcnnの学習方法、テスティング方法、学習装置、及びテスティング装置 |
CN111259712A (zh) * | 2018-11-30 | 2020-06-09 | 百度(美国)有限责任公司 | 用于车辆行为预测的压缩环境特征的表示 |
CN111259712B (zh) * | 2018-11-30 | 2024-01-05 | 百度(美国)有限责任公司 | 用于车辆行为预测的压缩环境特征的表示 |
WO2020119363A1 (zh) * | 2018-12-13 | 2020-06-18 | 华为技术有限公司 | 自动驾驶方法、训练方法及相关装置 |
WO2020134828A1 (zh) * | 2018-12-27 | 2020-07-02 | 深圳云天励飞技术有限公司 | 一种神经网络推理结构优化方法及装置 |
CN111507160A (zh) * | 2019-01-31 | 2020-08-07 | 斯特拉德视觉公司 | 集成从执行协同驾驶的车辆获取的行驶图像的方法及装置 |
CN111507160B (zh) * | 2019-01-31 | 2023-11-14 | 斯特拉德视觉公司 | 集成从执行协同驾驶的车辆获取的行驶图像的方法及装置 |
CN110007598A (zh) * | 2019-04-09 | 2019-07-12 | 吉林大学 | 一种基于代理模型的自动变速器控制参数预标定方法 |
CN113408325A (zh) * | 2020-03-17 | 2021-09-17 | 北京百度网讯科技有限公司 | 车辆周围环境的识别方法、装置及相关设备 |
Also Published As
Publication number | Publication date |
---|---|
EP3373200A1 (en) | 2018-09-12 |
CN108537326B (zh) | 2022-05-13 |
JP6653343B2 (ja) | 2020-02-26 |
EP3373200B1 (en) | 2021-01-27 |
US11308391B2 (en) | 2022-04-19 |
US20180253647A1 (en) | 2018-09-06 |
JP2018173946A (ja) | 2018-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108537326A (zh) | 用于自动驾驶车辆的方法、介质和*** | |
US11137762B2 (en) | Real time decision making for autonomous driving vehicles | |
JP7256758B2 (ja) | 自動運転車両においてrnnとlstmを用いて時間平滑化を行うlidar測位 | |
CN108604095A (zh) | 动态调整自动驾驶车辆的转向率的方法 | |
CN110377024A (zh) | 用于自动驾驶车辆的自动数据标注 | |
US10997729B2 (en) | Real time object behavior prediction | |
CN110239562A (zh) | 自动驾驶车辆的基于周围车辆行为的实时感知调整与驾驶调适 | |
CN109196432A (zh) | 用于自动驾驶车辆的速度控制参数估计方法 | |
CN110377025A (zh) | 用于自动驾驶车辆的传感器聚合框架 | |
CN110345955A (zh) | 用于自动驾驶的感知与规划协作框架 | |
CN110388931A (zh) | 将对象的二维边界框转换成自动驾驶车辆的三维位置的方法 | |
CN108475057A (zh) | 基于车辆周围的情境预测车辆的一个或多个轨迹的方法和*** | |
CN110389583A (zh) | 生成自动驾驶车辆的轨迹的方法 | |
CN109489673A (zh) | 用于自动驾驶车辆的数据驱动地图更新*** | |
CN110389585A (zh) | 用于自动驾驶车辆的基于学习的速度规划器 | |
CN109491375A (zh) | 用于自动驾驶车辆的基于驾驶场景的路径规划 | |
CN110378483A (zh) | 部署在模拟平台上的用于训练机器学习模型的***和方法 | |
CN108268033A (zh) | 使用基于图的车道变换指导来操作无人驾驶车辆的方法和*** | |
CN108089572A (zh) | 用于稳健且有效的车辆定位的算法和基础设施 | |
CN108139884A (zh) | 模拟自动驾驶车辆移动的物理模型和结合机器学习的方法 | |
CN110325935A (zh) | 用于自动驾驶车辆的路径规划的基于驾驶场景的车道引导线 | |
CN109429518A (zh) | 基于地图图像的自动驾驶交通预测 | |
CN108139756A (zh) | 为自动驾驶车辆构建周围环境以制定驾驶决策的方法和*** | |
CN108027243A (zh) | 用于操作自动驾驶车辆的控制误差校正规划方法 | |
JP2021515724A (ja) | 自動運転車において3dcnnネットワークを用いてソリューション推断を行うlidar測位 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |