CN117473879A - 一种自动驾驶仿真场景的生成方法、装置及设备 - Google Patents

一种自动驾驶仿真场景的生成方法、装置及设备 Download PDF

Info

Publication number
CN117473879A
CN117473879A CN202311811138.5A CN202311811138A CN117473879A CN 117473879 A CN117473879 A CN 117473879A CN 202311811138 A CN202311811138 A CN 202311811138A CN 117473879 A CN117473879 A CN 117473879A
Authority
CN
China
Prior art keywords
simulation scene
driving simulation
word
preset
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311811138.5A
Other languages
English (en)
Other versions
CN117473879B (zh
Inventor
毛祖秋
敬明
李申东
王司羽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Everything Mirror Beijing Computer System Co ltd
Original Assignee
Everything Mirror Beijing Computer System Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Everything Mirror Beijing Computer System Co ltd filed Critical Everything Mirror Beijing Computer System Co ltd
Priority to CN202311811138.5A priority Critical patent/CN117473879B/zh
Publication of CN117473879A publication Critical patent/CN117473879A/zh
Application granted granted Critical
Publication of CN117473879B publication Critical patent/CN117473879B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2111/00Details relating to CAD techniques
    • G06F2111/04Constraint-based CAD
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Medical Informatics (AREA)
  • Computer Hardware Design (AREA)
  • Machine Translation (AREA)

Abstract

本公开提供一种自动驾驶仿真场景的生成方法、装置及设备,自动驾驶仿真场景的生成方法包括:获取根据自然语言描述生成的第一提示词;获取自动驾驶仿真场景库中的至少一个预设驾驶仿真场景,其中,自动驾驶仿真场景库中包含多种不同的预设驾驶仿真场景;根据第一提示词,生成与至少一个预设驾驶仿真场景相匹配的至少一个目标驾驶仿真场景。本公开提供的方案能够快速、准确的生成自动驾驶仿真场景,提高场景库的多样性。

Description

一种自动驾驶仿真场景的生成方法、装置及设备
技术领域
本公开属于计算机信息处理技术领域,特别是指一种自动驾驶仿真场景的生成方法、装置及设备。
背景技术
随着自动驾驶技术的不断创新,车辆驾驶的主体逐渐由人转变为机器,对自动驾驶的安全性提出了更高的要求。
传统的道路测试需要从海量的道路测试场景中发现导致自动驾驶功能失效的各类安全问题,从测试内容、效率、成本等角度考虑,面临周期长、成本高、生成的场景单一、安全无法保障等问题,难以满足高级别自动驾驶***安全可靠性的测试要求,成为了制约自动驾驶技术快速研发和升级迭代的关键。
同时,基于实采和编辑器编辑的传统场景生成技术,存在实采数据泛化难周期长,编辑场景专业门槛高,成本高等问题。
发明内容
本公开要解决的技术问题是提供一种自动驾驶仿真场景的生成方法、装置及设备,以提高自动驾驶仿真场景生成的准确性与真实性。
第一方面,本公开的实施例提供一种自动驾驶仿真场景的生成方法,包括:
获取根据自然语言描述生成的第一提示词;
获取自动驾驶仿真场景库中的至少一个预设驾驶仿真场景,自动驾驶仿真场景库中包含多种不同的预设驾驶仿真场景;
根据第一提示词,生成与至少一个预设驾驶仿真场景相匹配的至少一个目标驾驶仿真场景。
可选的,获取根据自然语言描述生成的第一提示词,包括:
提取自然语言描述中的多个关键词;
根据多个关键词以及第一预设序列模型,获得自然语言描述的第一提示词,第一提示词中包括多个具有序列关系的关键词。
可选的,提取自然语言描述中的多个关键词,包括:
获取组成自然语言描述的单词集合,单词集合包括多种不同类型的单词,每种类型均对应有至少一个该类型的单词;
根据预设算法以及单词集合中各个单词之间的关系信息,确定单词集合中的多个关键词。
可选的,根据第一提示词,生成与至少一个预设驾驶仿真场景相匹配的至少一个目标驾驶仿真场景,包括:
确定与预设驾驶仿真场景对应的第二提示词;
将第一提示词与第二提示词输入到训练好的大语言处理模型中进行处理,生成与至少一个预设驾驶仿真场景相匹配的至少一个目标驾驶仿真场景,大语言处理模型是基于深度学习模型根据自注意力机制对训练数据集中具有关系的词语进行训练得到的。
可选的,获取与预设驾驶仿真场景对应的第二提示词,包括:
获取预设驾驶仿真场景对应的结构化数据;
根据结构化数据以及第二预设序列模型,获得与预设驾驶仿真场景对应的第二提示词。
可选的,将第一提示词与第二提示词输入到训练好的大语言处理模型中进行处理,生成与至少一个预设驾驶仿真场景相匹配的至少一个目标驾驶仿真场景,包括:
将第一提示词与第二提示词输入训练好的大语言处理模型的输入层中进行预处理,获得多个预处理后的关键词;
将多个预处理后的关键词输入训练好的大语言处理模型的编码器层中进行编码处理,获得第一处理结果;
将第一处理结果输入训练好的大语言处理模型的模型层中进行处理,获得第二处理结果;
将第二处理结果输入训练好的大语言处理模型的解码器层中进行整合,获得第三处理结果;
将第三处理结果输入训练好的大语言处理模型的输出层中进行处理,生成并输出与至少一个预设驾驶仿真场景相匹配的至少一个目标驾驶仿真场景。
可选的,上述自动驾驶仿真场景的生成方法,还包括:
将至少一个目标驾驶仿真场景添加到自动驾驶仿真场景库,得到更新后的自动驾驶仿真场景库;
根据更新后的自动驾驶仿真场景库中的驾驶仿真场景对应的数据信息,调整大语言处理模型的目标参数。
第二方面,本公开的实施例提供一种自动驾驶仿真场景的生成装置,包括:
第一获取模块,用于获取根据自然语言描述生成的第一提示词;
第二获取模块,用于获取自动驾驶仿真场景库中的至少一个预设驾驶仿真场景,自动驾驶仿真场景库中包含多种不同的预设驾驶仿真场景;
处理模块,用于根据第一提示词,生成与至少一个预设驾驶仿真场景相匹配的至少一个目标驾驶仿真场景。
可选的,第一获取模块包括:
第一获取子模块,用于提取自然语言描述中的多个关键词;
第二获取子模块,用于根据多个关键词以及第一预设序列模型,获得自然语言描述的第一提示词,第一提示词中包括多个具有序列关系的关键词。
可选的,第一获取子模块包括:
第一获取子单元,用于获取组成自然语言描述的单词集合,单词集合包括多种不同类型的单词,每种类型均对应有至少一个该类型的单词;
第二获取子单元,用于根据预设算法以及单词集合中各个单词之间的关系信息,确定单词集合中的多个关键词。
可选的,处理模块包括:
第一处理子模块,用于确定与预设驾驶仿真场景对应的第二提示词;
第二处理子模块,用于将第一提示词与第二提示词输入到训练好的大语言处理模型中进行处理,生成与至少一个预设驾驶仿真场景相匹配的至少一个目标驾驶仿真场景,大语言处理模型是基于深度学习模型根据自注意力机制对训练数据集中具有关系的词语进行训练得到的。
可选的,第一处理子模块包括:
第一处理子单元,用于获取预设驾驶仿真场景对应的结构化数据;
第二处理子单元,用于根据结构化数据以及第二预设序列模型,获得与预设驾驶仿真场景对应的第二提示词。
可选的,第二处理子模块包括:
第三处理子单元,用于将第一提示词与第二提示词输入训练好的大语言处理模型的输入层中进行预处理,获得多个预处理后的关键词;
第四处理子单元,用于将多个预处理后的关键词输入训练好的大语言处理模型的编码器层中进行编码处理,获得第一处理结果;
第五处理子单元,用于将第一处理结果输入训练好的大语言处理模型的模型层中进行处理,获得第二处理结果;
第六处理子单元,用于将第二处理结果输入训练好的大语言处理模型的解码器层中进行整合,获得第三处理结果;
第七处理子单元,用于将第三处理结果输入训练好的大语言处理模型的输出层中进行处理,生成并输出与至少一个预设驾驶仿真场景相匹配的至少一个目标驾驶仿真场景。
可选的,处理模块还包括:
第三处理子模块,用于将至少一个目标驾驶仿真场景添加到自动驾驶仿真场景库,得到更新后的自动驾驶仿真场景库;
第四处理子模块,用于根据更新后的自动驾驶仿真场景库中的驾驶仿真场景对应的数据信息,调整大语言处理模型的目标参数。
第三方面,本公开实施例提供了一种计算设备,该计算设备包括处理器、存储器及存储在存储器上并可在处理器上运行的程序或指令,程序或指令被处理器执行时实现如第一方面的自动驾驶仿真场景的生成方法的步骤。
第四方面,本公开实施例提供了一种可读存储介质,可读存储介质上存储程序或指令,程序或指令被处理器执行时实现如第一方面的自动驾驶仿真场景的生成方法的步骤。
本公开的上述方案至少包括以下有益效果:
本公开的上述方案通过获取根据自然语言描述生成的第一提示词以及自动驾驶仿真场景库中的至少一个预设驾驶仿真场景,自动驾驶仿真场景库中包含多种不同的预设驾驶仿真场景;根据第一提示词,生成与至少一个预设驾驶仿真场景相匹配的至少一个目标驾驶仿真场景,从而可以提高自动驾驶仿真场景生成的准确性与真实性,为自动驾驶技术的发展提供技术支持。
附图说明
图1是本公开实施例提供的自动驾驶仿真场景的生成方法流程图;
图2是本公开一可选实施例提供的自动驾驶仿真场景的生成方法中获取根据自然语言描述生成的第一提示词的流程图;
图3是本公开一可选实施例提供的自动驾驶仿真场景的生成方法中提取自然语言描述中的多个关键词的流程图;
图4是本公开一可选实施例提供的自动驾驶仿真场景的生成方法中根据第一提示词,生成与至少一个预设驾驶仿真场景相匹配的至少一个目标驾驶仿真场景的流程图;
图5是本公开一可选实施例提供的自动驾驶仿真场景的生成方法中获取与预设驾驶仿真场景对应的第二提示词的流程图;
图6是本公开一可选实施例提供的自动驾驶仿真场景的生成方法中将第一提示词与第二提示词输入到训练好的大语言处理模型中进行处理,生成与至少一个预设驾驶仿真场景相匹配的至少一个目标驾驶仿真场景的流程图;
图7是本公开一可选实施例提供的自动驾驶仿真场景的生成方法中附加的根据目标驾驶仿真场景调整大语言处理模型的目标参数的流程图;
图8是本公开一可选实施例提供的自动驾驶仿真场景的生成方法流程图;
图9是本公开实施例提供的自动驾驶仿真场景的生成装置的模块框示意图;
图10是本公开的实施例提供的计算设备的结构示意图;
图11是实现本公开的实施例提供的计算设备的硬件结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
为了解决现有技术中无法快速、真是准确地生成驾驶场景的问题,如图1所示,本公开的实施例提供一种自动驾驶仿真场景的生成方法,包括:
步骤11,获取根据自然语言描述生成的第一提示词;
步骤12,获取自动驾驶仿真场景库中的至少一个预设驾驶仿真场景,自动驾驶仿真场景库中包含多种不同的预设驾驶仿真场景;
步骤13,根据第一提示词,生成与至少一个预设驾驶仿真场景相匹配的至少一个目标驾驶仿真场景。
该实施例中,自然语言描述是基于用户驾驶仿真场景的实际需求生成的,第一提示词是对人类友好的自然语言描述进行处理后得到的,通过对自然语言描述进行处理,获得满足后续处理要求的、具有相应格式的第一提示词,进而保证后续生成目标驾驶仿真场景的准确性;
这里,从自动驾驶仿真场景中获取的预设驾驶仿真场景是与当前第一提示词相对应的仿真场景,同时结合第一提示词,为后续生成目标驾驶仿真场景提供数据支持;这里,自动驾驶仿真场景库作为外部知识库,其中包含多种不同类型的预设驾驶仿真场景,在提供多样预设驾驶仿真场景对应的数据的同时,结合第一提示词,可以生成更加真实和准确的目标驾驶仿真场景,进而为自动驾驶技术的发展以及自动驾驶***的测试和优化提供技术支持。
在本公开的一可实现示例中,可以通过场景提示引擎对人类友好的自然语言描述进行处理,获得对应格式的第一提示词,以保证后续生成目标驾驶仿真场景的准确性;这里,场景提示引擎可以是相应的大语言处理模型,也可以相应的语言处理算法;应当知道的是,场景提示引擎不局限于一种模型或算法,为保证可以准确的获得第一提示词,可以结合多种模型或算法,例如:Seq2Seq序列到序列模型、注意力机制算法(该算法可以结合Seq2Seq模型,帮助模型关注输入描述中的关键部分,从而生成更准确的第一提示词)、信息提取算法(giant算法使用NLP方法,如命名实体识别和关系提取,来从自然语言描述中提取关键信息,并将这些信息转化为简洁的提示词)、神经网络语言模型(如GPT模型或其他模型,训练该模型从人类友好的自然语言描述生成第一提示词)、知识图谱算法(根据自然语言描述的输入,该算法查询知识图谱以提取关联的关键信息,然后将这些信息转化为第一提示词)。
如图2所示,在本公开的一可选实施例中,上述步骤11,可以包括:
步骤111,提取自然语言描述中的多个关键词;
步骤112,根据多个关键词以及第一预设序列模型,获得自然语言描述的第一提示词,第一提示词中包括多个具有序列关系的关键词。
该实施例中,可以将自然语言描述输入到场景提示引擎中,并通过场景提示引擎对自然语言描述进行语义分析,提取其中的多个关键词,以去除自然语言描述中其他不必要的冗余词语,保证后续生成目标驾驶仿真场景的准确性;
进一步的,将多个关键词输入到第一预设序列模型中,并基于语义分析获得多个关键词之间的关系,生成包含多个关键词且关键词之间具有序列关系的第一提示词;这里,关键词之间的序列关系表示在自然语言描述中的关键词之间的先后顺序的逻辑关系。
如图3所示,更进一步的,上述步骤111,可以包括:
步骤1111,获取组成自然语言描述的单词集合,单词集合包括多种不同类型的单词,每种类型均对应有至少一个该类型的单词;
步骤1112,根据预设算法以及单词集合中各个单词之间的关系信息,确定单词集合中的多个关键词。
该实施例中,对自然语言描述进行分词处理,并获得对应的单词或者多个单词形成的词组,同时形成单词集合;
在具体实现时,上述步骤1111,可以包括:
步骤11111,分析构成自然语言描述的句子中单词与单词之间的关系,并据此将自然语言描述分解成多个单词或词组;同时为每个单词或者词组标注相应的词性,如动词、名词、形容词等;
步骤11112,识别单词集合中特定的单词实体并标记,如人名、地点、组织等,以便于后续准确确定关键词;
步骤11113,关系信息提取:确定单词集合中的各个单词实体或者在单词实体形成的词组中单次实体之间的关系,这里,各个单词实体之间的关系可以包括行为关系、角色关系等;例如,“车辆在街道上行驶”中,“车辆”与“街道”之间的行为关系是“行驶”;例如,在角色关系中,可以确定施事方和受事方等,以便于准确地描述各单词实体之间的关系信息;
通过对自然语言描述进行分词以及单词之间关系信息的提取,并通过预设算法对获得的单词集合进行处理,确定单词集合中的关键词,以去除自然语言描述中的冗余单词,保留关键词以及关键词之间的关系信息,从而保证后续生成第一提示词的准确性,进一步保证了基于第一提示词生成目标驾驶仿真场景的准确性;这里,预设算法可以是TF-IDF算法,当然其他可实现统计的算法亦可。
本公开的一可实现示例中,步骤112可以包括:
步骤1211,输入关键词序列,并将每个关键词转化为对应的词嵌入向量;
步骤1212,使用第一预设序列模型中的第一循环神经网络对输入的关键词进行编码,捕捉输入关键词的上下文信息,这里的上下文信息表示当前输入的关键词对应的输入的上一个关键词以及即将输入的下一个关键词;
步骤1213,将每个关键词对应的词嵌入向量输入第一预设序列模型中的第二循环神经网络,对词嵌入向量进行处理,生成一个固定长度的上下文向量;第一循环神经网络和第二循环神经网络通过不变的语义向量C连接;
步骤1214,将固定长度的上下文向量作为初始隐藏状态;标记接收上一个时间步的隐藏状态和当前输入的词嵌入向量,并输出当前时间步的隐藏状态和预测的下一个词;在每个时间步,根据当前时间步的隐藏状态和预测的下一个词,生成当前时间步的输出词,通过重复这个过程,直到生成结束标记,则输出最终的第一提示词;
例如:输入的关键词包括:“车辆”、“街道”、“行驶”为例,且关键词“行驶”则对应生成的第一提示词为“车辆_行驶_街道”;更进一步的,可以对生成的第一提示词进行强化优化,进一步保证后续生成目标驾驶仿真场景的准确性。
在本公开的一可选实施例中,步骤12可以包括:通过外部知识库作为场景库,获取自动驾驶仿真场景库中的至少一个预设驾驶仿真场景。
如图4所示,在本公开的一可选实施例中,上述步骤13,可以包括:
步骤131,获取与预设驾驶仿真场景对应的第二提示词;
这里,预设驾驶仿真场景为与第一提示词对应的场景,也即是从自动驾驶场景库中,可以根据第一提示词,筛选出符合用户驾驶仿真场景需求的预设驾驶仿真场景;
这里,第二提示词是对预设驾驶仿真场景对应的数据进行处理得到的,如图5所示,具体包括以下步骤:
步骤1311,获取预设驾驶仿真场景对应的结构化数据;
步骤1312,根据结构化数据以及第二预设序列模型,获得与预设驾驶仿真场景对应的第二提示词。
这里,结构化数据表示预设驾驶仿真场景中具有约束关系的关键词,进一步的,将具有约束关系的关键词输入到第二预设序列模型中,生成第二提示词,以获得外部知识库中的驾驶仿真场景的数据,保证后续生成目标驾驶仿真场景的真实性和准确性;
以下将以一具体预设驾驶仿真场景为例,对上述步骤中的方法进行说明:
预设驾驶仿真场景为:在一个多云的日子,一个红色轿车正在城市的四车道道路上行驶,速度约为50公里/小时。在轿车的右侧,有一个骑自行车的人正在使用自行车道。而在左侧,是一个绿色的公交车站,其中有3名等待的乘客:一位中年女性、一位老年男性和一位少女。街道两边都种植了橡树,路上有些湿滑。
步骤13111中,提取结构化数据:
结构化数据包括:1、天气:多云;2、轿车:红色,四车道道路,速度50公里/小时;3、旁边情况:自行车道上有骑自行车的人;4、公交车站:绿色,3名乘客(中年女性、老年男性、少女);5、环境:街道两侧有橡树,路面湿滑
步骤13121中,将结构化数据输入到第二预设序列模型中进行处理,生成简洁且具有连贯性的第二提示词,例如:“多云天气下,红色轿车在湿滑的四车道道路上以50公里/小时行驶。右侧有骑自行车的人,左侧绿色公交车站有3名乘客:中年女性、老年男性和少女,街道两侧橡树成行”;这里,第二预设序列模型与第一预设序列模型相同,不同的是第二预设序列模型输入的是结构化数据,而结构化数据是针对任一仿真场景提取具有约束关系的关键词,第二预设序列模型对于结构化数据的处理与上述第一预设序列模型根据关键词获取第一提示词的具体处理过程相同,这里不再赘述。
进一步的,步骤132,将第一提示词与第二提示词输入到训练好的大语言处理模型中进行处理,生成与至少一个预设驾驶仿真场景相匹配的至少一个目标驾驶仿真场景,大语言处理模型是基于深度学习模型根据自注意力机制对训练数据集中具有关系的词语进行训练得到的;
这里,大语言处理模型是基于深度学习模型根据自注意力机制对训练数据集中具有序列关系的词语进行训练得到的;这里,深度学习模型的架构通常采用多层结构,其中包括输入层(词嵌入层)、编码器层、模型层、解码器层和输出层等;这里,编码器层和解码器层可以采用任何基于变换器架构的神经网络模型,如GPT等,在本实施例中不做具体限定;模型层可以采用任何基于线性变换或非线性变换的方法,如前馈神经网络(Feed-ForwardNeural Network)、残差层(Residual Layer)、归一化层 (Normalization Layer)等,在本实施例中不做具体限定;同时在模型层中,建立有注意力机制,以根据输入的词语和给定条件的相关性,动态地分配注意力权重;这里,注意力机制可以采用任何基于自注意力(Self-Attention)或交叉注意力(Cross-Attention)的方法,如多头注意力(Multi-HeadAttention)、缩放点积注意力(Scaled Dot-Product Attention)等,在本实施例中不做具体限定;
基于上述结构,模型的具体训练过程如下;
获取训练数据集,这里的训练数据集为具有关系的词语;
将训练数据集输入深度学习模型中的输入层中:首先使用预定义的词汇表,将训练数据集中的词语转换为对应的词向量;
将词向量输入到编码器层中,对每个词向量进行位置编码,以捕捉词序信息,同时输出具有位置编码的词向量;
将具有位置编码的词向量输入到模型层中;通过注意力机制来对输入的具有位置编码的词向量中的每个部分赋予不同的权重,并依次通过前馈神经网络(Feed-ForwardNeural Network)、残差层(Residual Layer)、归一化层 (Normalization Layer)进行处理,输出具有不同权重的词向量;
将具有不同权重的词向量输入到解码器层中进行处理整合处理,获得多个整合后的词向量,通过使用贪婪解码(Greedy Decoding)或束搜索(Beam Search)等策略来选择最可能的词作为输出,这里,通常是通过对模型输出应用Softmax函数并选择概率最高的词来完成的;
将解码器层中输出的最高概率的词输出,重复上述过程,并将交叉熵算法作为大语言处理模型中的损失函数;
通过交叉验证深度学习模型的准确率以及精确率,并调整深度学习模型的参数,使得训练后获得的大语言处理模型的准确以及精确率可以达到预设值;这里,预设值优选为预设的大语言处理模型最优的准确率、精确率以及召回率的值。
如图6所示,在本公开的一可选实施例中,上述步骤132,可以包括:
步骤1321,将第一提示词与第二提示词输入训练好的大语言处理模型的输入层中进行预处理,获得多个预处理后的关键词;
步骤1322,将多个预处理后的关键词输入训练好的大语言处理模型的编码器层中进行编码处理,获得第一处理结果;
步骤1323,将第一处理结果输入训练好的大语言处理模型的模型层中进行处理,获得第二处理结果;
步骤1324,将第二处理结果输入训练好的大语言处理模型的解码器层中进行整合,获得第三处理结果;
步骤1325,将第三处理结果输入训练好的大语言处理模型的输出层中进行处理,生成并输出与至少一个预设驾驶仿真场景相匹配的至少一个目标驾驶仿真场景。
这里,在大语言处理模型的输入层中对第一提示词以及第二提示词进行预处理,具体是将第一提示词以及第二提示词转化为对应的词向量,以满足大语言处理模型的输入及处理格式要求;
进一步的,将预处理后获得的词向量输入到编码器层中,通过编码器层对输入的每个词向量中的不同部分进行位置编码,以捕捉词向量的词序信息,同时输出具有位置编码的词向量,作为第一处理结果,并进一步输入到模型层中;在模型层中,通过注意力机制来对输入的、具有位置编码的词向量分别赋予不同的权重,以确定哪些词向量对于生成输出特别重要,同时生成具有权重以及位置编码的词向量,作为第二处理结果;第二处理结果输入训练好的大语言处理模型的解码器层中进行整合,根据位置编码以及权重重新组合输入的第二结果,以保证输出的连贯性和准确性;进一步的,在输出层中,通过使用贪婪解码(Greedy Decoding)或束搜索(Beam Search)等策略来选择最可能的词作为输出,逐步生成目标驾驶仿真场景的描述;
这里,可以根据需要对输出的目标驾驶仿真场景的描述进行微调,例如修正语法错误或调整某些细节以确保与提示词更加吻合;本实施例中,根据给定的第一提示词以及预设驾驶仿真场景的第二提示词,通过其内部的模型层次架构和注意力机制,生成与提示词相匹配的目标驾驶仿真场景的描述,整个过程涉及到对输入信息的深度理解,以及对输出场景的连贯性和准确性的确保。
如图7所示,本公开的一可选实施例中,上述方法还可以包括:
步骤14,将至少一个目标驾驶仿真场景添加到自动驾驶仿真场景库,得到更新后的自动驾驶仿真场景库;
步骤15,根据更新后的自动驾驶仿真场景库中的驾驶仿真场景对应的数据信息,调整大语言处理模型的目标参数。
该实施例中,提取更新后的自动驾驶仿真场景库中的场景对应的结构化数据,将该结构化数据作为训练数据输入大语言处理模型中进行处理,以调整模型的目标参数,保证模型生成目标驾驶仿真场景的准确性;这里,目标参数可以包括:学习率(决定模型权重更新的幅度,可以根据微调的进度逐步减小学习率)、正则化参数(如Dropout率或权重衰减,以避免过拟合)、优化器的超参数等;在具体调整时,通过输入的训练数据进行训练,使用比原始训练更小的学习率,以进行微小的调整;进一步的,使用未参与微调的数据进行验证,确保模型没有出现过拟合,并根据验证结果,多次迭代微调过程,每次迭代时都进行参数的微调。
本公开的一可选实施例中,在生成目标驾驶仿真场景之后,上述方法还可以包括:
步骤16,对至少一个目标驾驶仿真场景进行检测,确定错误或者不合法的目标驾驶仿真场景。
步骤17,根据错误或者不合法的目标驾驶仿真场景,修正第一提示词。
该实施例中,为了提高大语言处理模型生成目标驾驶仿真场景的准确性和质量,可以设计自动化的错误检测和修复工具,对生成的目标驾驶仿真进行检测,并将检测结果反馈至场景提示引擎,以便改进和优化提示词的生成;
在进行具体检测时,可以将大语言处理模型生成的目标驾驶仿真场景和标准的场景进行的匹配和对比,进行匹配和对比的项目包括以下至少一项:
场景完整性:确保大语言处理模型生成的场景包含了所有必要的元素和细节;
逻辑一致性:检查大语言处理模型生成的场景中的元素和事件是否逻辑上是连贯和一致的;
代码合法性:如果大语言处理模型生成的场景包含代码,确保代码是可以执行的,没有语法错误;
场景规格:比较大语言处理模型生成的场景与预定义的标准场景模板,确保它们在格式和结构上相匹配;
场景质量:评估场景的详细程度、复杂性和真实性。
检测的具体实现过程如下:
静态分析:对大语言处理模型生成的场景进行初步的结构和内容分析,查找明显的缺失或错误;
动态模拟:执行大语言处理模型生成的场景中的代码或模拟,看看是否可以成功运行和达到预期效果;
与标准场景模板比对:将大语言处理模型生成的场景与预定义的标准场景模板进行对比,查找差异和不一致;
质量评分:基于上述步骤,为大语言处理模型生成的场景打分,确定其质量和准确性;
对于检测出有问题的目标驾驶仿真场景后的反馈信息可以包括:
错误类型:例如,缺失的元素、逻辑错误、代码语法错误等;
错误位置:具体指出错误或问题出现的位置;
建议的修复方法:为每个检测到的错误提供一个可能的修复建议;
基于上述检测过程和反馈的信息,场景提示引擎基于改进和优化提示词的具体操作可以包括以下至少一项:
更新权重:根据反馈信息,调整生成提示词的权重,使其更加偏向于生成高质量和准确的场景;
增强训练数据:将错误的场景和正确的目标驾驶仿真场景加入到训练数据中,增强模型的训练;
如图8所示,本公开的上述方法所示的一种具体实现流程如下:
步骤21,通过场景提示引擎对自然语言描述进行处理,生成的第一提示词,这里,场景提示引擎即为上述实施例中的第一预设序模型、第二预设序列模型;
步骤22,从自动驾驶仿真场景库中的至少一个预设驾驶仿真场景,并通过场景提示引擎对预设驾驶场景进行处理,生成第二提示词;
步骤23,将第一提示词、第二提示词输入到训练好的大语言处理模型中,生成并输入目标驾驶仿真场景;
步骤24,对生成的目标驾驶仿真场景进行检测,并得到相关反馈信息,分别反馈至场景提示引擎以及大语言处理模型;
上述实施例,通过从自动驾驶仿真场景中获取与当前第一提示词相对应的预设驾驶仿真场景,并通过场景提示引擎进行处理后得到第二提示词,同时结合第一提示词,为后续生成目标驾驶仿真场景提供数据支持;这里,自动驾驶仿真场景库作为外部知识库,在生成目标驾驶仿真场景后,一方面输出并提供用户,另一方面保存至自动驾驶仿真场景库,以更新场景库,提供更为多样驾驶仿真场景;同时,根据对生成的目标驾驶仿真场景进行检测得到的反馈信息可以反馈至大语言处理模型,以调整模型的目标参数,保证生成更加真实和准确的目标驾驶仿真场景,进而为自动驾驶技术的发展以及自动驾驶***的测试和优化提供技术支持;同时反馈信息也可以反馈至场景提示引擎,以优化提示词的生成;
本公开的上述实施例,对于优化提示词,可以引入专家知识:结合领域专家的知识和反馈,进一步优化提示词的生成;对于生成的目标驾驶仿真场景中存在的错误或不准确性,可以通过下述具体的修正策略对提示词进行修正:
1、增加具体性:主要针对生成的目标驾驶仿真场景过于模糊或缺乏详细信息;
示例:原提示词:“城市中的自动驾驶汽车”,生成的目标驾驶仿真场景:一个自动驾驶汽车在道路上行驶,没有其他车辆或行人;
修正后的提示词:“城市中的自动驾驶汽车在繁忙的十字路口行驶,旁边有行人过马路和几辆自行车”;
2、修正不准确的信息:主要针对生成的仿真场景与提示词的某些信息不符;
示例:原提示词:“自动驾驶汽车在雨天行驶”,生成的目标驾驶仿真场景:自动驾驶汽车在晴天的公路上行驶;
修正后的提示词:“自动驾驶汽车在城市中的雨天湿滑路面上行驶,雨刮器在工作”;
3、添加限制:主要针对生成的仿真场景包含不希望出现的元素;
示例:原提示词:“自动驾驶汽车在夜晚行驶”,生成的目标驾驶仿真场景:自动驾驶汽车在夜晚的乡村道路上行驶,旁边有野生动物;
修正后的提示词:“自动驾驶汽车在夜晚的城市道路上行驶,旁边是照明良好的建筑物”;
4、修正语境:主要针对生成的仿真场景与预期的语境或背景不符;
示例:原提示词:“自动驾驶汽车在高速公路上行驶”,生成的目标驾驶仿真场景:自动驾驶汽车在繁忙的市区道路上行驶;
修正后的提示词:“自动驾驶汽车在宽阔、流量稀少的高速公路上行驶,周围是开阔的田野”;
5、明确目的:主要针对生成的仿真场景与预期的目的或结果不符;
示例:原提示词:“测试自动驾驶汽车的紧急制动功能”,生成的目标驾驶仿真场景:自动驾驶汽车在道路上平稳行驶,没有任何障碍物;
修正后的提示词:“自动驾驶汽车在高速公路上行驶,前方突然出现一个障碍物,车辆需要立即进行紧急制动”;
通过上述修正策略,可以更具体和准确地指导大语言处理模型生成自动驾驶仿真场景,进而有效地提高生成场景的准确性和质量。
如图9所示,本公开的实施例还提供一种自动驾驶仿真场景的生成装置90,包括:
第一获取模块91,用于获取根据自然语言描述生成的第一提示词;
第二获取模块92,用于获取自动驾驶仿真场景库中的至少一个预设驾驶仿真场景,自动驾驶仿真场景库中包含多种不同的预设驾驶仿真场景;
处理模块93,用于根据第一提示词,生成与至少一个预设驾驶仿真场景相匹配的至少一个目标驾驶仿真场景。
可选的,第一获取模块91包括:
第一获取子模块,用于提取自然语言描述中的多个关键词;
第二获取子模块,用于根据多个关键词以及预设序列模型,获得自然语言描述的第一提示词,第一提示词中包括多个具有序列关系的关键词。
可选的,第一获取子模块包括:
第一获取子单元,用于获取组成自然语言描述的单词集合,单词集合包括多种不同类型的单词,每种类型均对应有至少一个该类型的单词;
第二获取子单元,用于根据预设算法以及单词集合中各个单词之间的关系信息,确定单词集合中的多个关键词。
可选的,处理模块93包括:
第一处理子模块,用于确定与预设驾驶仿真场景对应的第二提示词;
第二处理子模块,用于将第一提示词与第二提示词输入到训练好的大语言处理模型中进行处理,生成与至少一个预设驾驶仿真场景相匹配的至少一个目标驾驶仿真场景,大语言处理模型是基于深度学习模型根据自注意力机制对训练数据集中具有关系的词语进行训练得到的。
可选的,第一处理子模块包括:
第一处理子单元,用于获取预设驾驶仿真场景对应的结构化数据;
第二处理子单元,用于根据结构化数据以及预设序列模型,获得与预设驾驶仿真场景对应的第二提示词。
可选的,第二处理子模块包括:
第三处理子单元,用于将第一提示词与第二提示词输入训练好的大语言处理模型的输入层中进行预处理,获得多个预处理后的关键词;
第四处理子单元,用于将多个预处理后的关键词输入训练好的大语言处理模型的编码器层中进行编码处理,获得第一处理结果;
第五处理子单元,用于将第一处理结果输入训练好的大语言处理模型的模型层中进行处理,获得第二处理结果;
第六处理子单元,用于将第二处理结果输入训练好的大语言处理模型的解码器层中进行整合,获得第三处理结果;
第七处理子单元,用于将第三处理结果输入训练好的大语言处理模型的输出层中进行处理,生成并输出与至少一个预设驾驶仿真场景相匹配的至少一个目标驾驶仿真场景。
可选的,处理模块93还包括:
第三处理子模块,用于将至少一个目标驾驶仿真场景添加到自动驾驶仿真场景库,得到更新后的自动驾驶仿真场景库;
第四处理子模块,用于根据更新后的自动驾驶仿真场景库中的驾驶仿真场景对应的数据信息,调整大语言处理模型的目标参数。
需要说明的是,该装置是与上述自动驾驶仿真场景的生成方法相对应的装置,上述方法实施例中的所有实现方式均适用于该装置的实施例中,也能达到相同的技术效果。
如图10所示,本公开实施例还提供一种计算设备100,包括处理器101,存储器102,存储在存储器102上并可在处理器101上运行的程序或指令,该程序或指令被处理器101执行时实现上述自动驾驶仿真场景的生成方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。需要说明的是,本公开实施例中的计算设备包括上述的移动电子设备和非移动电子设备。
图11为实现本公开实施例的一种计算设备的硬件结构示意图。
该计算设备1100包括但不限于:射频单元1101、网络模块1102、音频输出单元1103、输入单元1104、传感器1105、显示单元1106、用户输入单元1107、接口单元1108、存储器1109、以及处理器1110等部件。
本领域技术人员可以理解,计算设备1100还可以包括给各个部件供电的电源(比如电池),电源可以通过电源管理***与处理器1110逻辑相连,从而通过电源管理***实现管理充电、放电、以及功耗管理等功能。图11中示出的计算设备结构并不构成对计算设备的限定,计算设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置,在此不再赘述。
应理解的是,本公开实施例中,输入单元1104可以包括图形处理器(GraphicsProcessing Unit,GPU)11041和麦克风11042,图形处理器11041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像设备)获得的静态图片或视频的图像数据进行处理。显示单元1106可包括显示面板11061,可以采用液晶显示器、有机发光二极管等形式来配置显示面板11061。用户输入单元1107包括触控面板11071以及其他输入设备11072。触控面板11071,也称为触摸屏。触控面板11071可包括触摸检测装置和触摸控制器两个部分。其他输入设备11072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。存储器1109可用于存储软件程序以及各种数据,包括但不限于应用程序和操作***。处理器1110可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作***、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器1110中。
本公开实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有指令,当指令在计算机上运行时,使得计算机执行上述自动驾驶仿真场景的生成方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
其中,处理器为上述实施例中的计算设备中的处理器。可读存储介质,包括计算机可读存储介质,如计算机只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、磁碟或者光盘等。
本公开实施例另提供了一种芯片,芯片包括处理器和通信接口,通信接口和处理器耦合,处理器用于运行程序或指令,实现上述自动驾驶仿真场景的生成方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
应理解,本公开实施例提到的芯片还可以称为***级芯片、***芯片、芯片***或片上***芯片等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。此外,需要指出的是,本公开实施方式中的方法和装置的范围不限按示出或讨论的顺序来执行功能,还可包括根据所涉及的功能按基本同时的方式或按相反的顺序来执行功能,例如,可以按不同于所描述的次序来执行所描述的方法,并且还可以添加、省去、或组合各种步骤。另外,参照某些示例所描述的特征可在其他示例中被组合。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分可以以计算机软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,或者网络设备等)执行本公开各个实施例的方法。
上面结合附图对本公开的实施例进行了描述,但是本公开并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本公开的启示下,在不脱离本公开宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本公开的保护之内。

Claims (10)

1.一种自动驾驶仿真场景的生成方法,其特征在于,包括:
获取根据自然语言描述生成的第一提示词;
获取自动驾驶仿真场景库中的至少一个预设驾驶仿真场景,所述自动驾驶仿真场景库中包含多种不同的预设驾驶仿真场景;
根据所述第一提示词,生成与至少一个所述预设驾驶仿真场景相匹配的至少一个目标驾驶仿真场景。
2.根据权利要求1所述的自动驾驶仿真场景的生成方法,其特征在于,获取根据自然语言描述生成的第一提示词,包括:
提取所述自然语言描述中的多个关键词;
根据多个所述关键词以及第一预设序列模型,获得所述自然语言描述的第一提示词,所述第一提示词中包括多个具有序列关系的关键词。
3.根据权利要求2所述的自动驾驶仿真场景的生成方法,其特征在于,提取所述自然语言描述中的多个关键词,包括:
获取组成所述自然语言描述的单词集合,所述单词集合包括多种不同类型的单词,每种类型均对应有至少一个该类型的单词;
根据预设算法以及所述单词集合中各个单词之间的关系信息,确定所述单词集合中的多个关键词。
4.根据权利要求1所述的自动驾驶仿真场景的生成方法,其特征在于,根据所述第一提示词,生成与至少一个所述预设驾驶仿真场景相匹配的至少一个目标驾驶仿真场景,包括:
确定与所述预设驾驶仿真场景对应的第二提示词;
将所述第一提示词与所述第二提示词输入到训练好的大语言处理模型中进行处理,生成与至少一个所述预设驾驶仿真场景相匹配的至少一个目标驾驶仿真场景,所述大语言处理模型是基于深度学习模型根据自注意力机制对训练数据集中具有关系的词语进行训练得到的。
5.根据权利要求4所述的自动驾驶仿真场景的生成方法,其特征在于,获取与所述预设驾驶仿真场景对应的第二提示词,包括:
获取所述预设驾驶仿真场景对应的结构化数据;
根据所述结构化数据以及第二预设序列模型,获得与所述预设驾驶仿真场景对应的第二提示词。
6.根据权利要求4所述的自动驾驶仿真场景的生成方法,其特征在于,将所述第一提示词与所述第二提示词输入到训练好的大语言处理模型中进行处理,生成与至少一个所述预设驾驶仿真场景相匹配的至少一个目标驾驶仿真场景,包括:
将第一提示词与第二提示词输入训练好的大语言处理模型的输入层中进行预处理,获得多个预处理后的关键词;
将多个预处理后的关键词输入训练好的大语言处理模型的编码器层中进行编码处理,获得第一处理结果;
将第一处理结果输入训练好的大语言处理模型的模型层中进行处理,获得第二处理结果;
将第二处理结果输入训练好的大语言处理模型的解码器层中进行整合,获得第三处理结果;
将第三处理结果输入训练好的大语言处理模型的输出层中进行处理,生成并输出与至少一个预设驾驶仿真场景相匹配的至少一个目标驾驶仿真场景。
7.根据权利要求4所述的自动驾驶仿真场景的生成方法,其特征在于,还包括:
将至少一个所述目标驾驶仿真场景添加到所述自动驾驶仿真场景库,得到更新后的自动驾驶仿真场景库;
根据所述更新后的自动驾驶仿真场景库中的驾驶仿真场景对应的数据信息,调整所述大语言处理模型的目标参数。
8.一种自动驾驶仿真场景的生成装置,其特征在于,包括:
第一获取模块,用于获取根据自然语言描述生成的第一提示词;
第二获取模块,用于获取自动驾驶仿真场景库中的至少一个预设驾驶仿真场景,所述自动驾驶仿真场景库中包含多种不同的预设驾驶仿真场景;
处理模块,用于根据所述第一提示词,生成与至少一个所述预设驾驶仿真场景相匹配的至少一个目标驾驶仿真场景。
9.一种计算设备,其特征在于,包括:处理器、存储有计算机程序的存储器,所述计算机程序被处理器运行时,执行如权利要求1至7任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,包括指令,当指令在计算机上运行时,使得计算机执行如权利要求1至7任一项所述的方法。
CN202311811138.5A 2023-12-27 2023-12-27 一种自动驾驶仿真场景的生成方法、装置及设备 Active CN117473879B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311811138.5A CN117473879B (zh) 2023-12-27 2023-12-27 一种自动驾驶仿真场景的生成方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311811138.5A CN117473879B (zh) 2023-12-27 2023-12-27 一种自动驾驶仿真场景的生成方法、装置及设备

Publications (2)

Publication Number Publication Date
CN117473879A true CN117473879A (zh) 2024-01-30
CN117473879B CN117473879B (zh) 2024-04-02

Family

ID=89635124

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311811138.5A Active CN117473879B (zh) 2023-12-27 2023-12-27 一种自动驾驶仿真场景的生成方法、装置及设备

Country Status (1)

Country Link
CN (1) CN117473879B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108509411A (zh) * 2017-10-10 2018-09-07 腾讯科技(深圳)有限公司 语义分析方法和装置
WO2022017307A1 (zh) * 2020-07-22 2022-01-27 华为技术有限公司 自动驾驶场景生成方法、装置及***
CN114117740A (zh) * 2021-10-29 2022-03-01 际络科技(上海)有限公司 基于自动驾驶的仿真测试场景生成方法及装置
CN115270381A (zh) * 2021-04-29 2022-11-01 北京三快在线科技有限公司 仿真场景生成方法、装置、自动驾驶设备及可读存储介质
CN115357500A (zh) * 2022-08-23 2022-11-18 北京百度网讯科技有限公司 自动驾驶***的测试方法、装置、设备和介质
CN115761551A (zh) * 2022-12-22 2023-03-07 重庆长安汽车股份有限公司 一种自动驾驶仿真场景生成方法、装置、设备及介质
CN117272648A (zh) * 2023-09-21 2023-12-22 东风商用车有限公司 自动驾驶仿真场景的生成方法、装置及电子设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108509411A (zh) * 2017-10-10 2018-09-07 腾讯科技(深圳)有限公司 语义分析方法和装置
WO2022017307A1 (zh) * 2020-07-22 2022-01-27 华为技术有限公司 自动驾驶场景生成方法、装置及***
CN115270381A (zh) * 2021-04-29 2022-11-01 北京三快在线科技有限公司 仿真场景生成方法、装置、自动驾驶设备及可读存储介质
CN114117740A (zh) * 2021-10-29 2022-03-01 际络科技(上海)有限公司 基于自动驾驶的仿真测试场景生成方法及装置
CN115357500A (zh) * 2022-08-23 2022-11-18 北京百度网讯科技有限公司 自动驾驶***的测试方法、装置、设备和介质
CN115761551A (zh) * 2022-12-22 2023-03-07 重庆长安汽车股份有限公司 一种自动驾驶仿真场景生成方法、装置、设备及介质
CN117272648A (zh) * 2023-09-21 2023-12-22 东风商用车有限公司 自动驾驶仿真场景的生成方法、装置及电子设备

Also Published As

Publication number Publication date
CN117473879B (zh) 2024-04-02

Similar Documents

Publication Publication Date Title
CN110489395B (zh) 自动获取多源异构数据知识的方法
CN110991290B (zh) 基于语义指导与记忆机制的视频描述方法
CN108052499A (zh) 基于人工智能的文本纠错方法、装置及计算机可读介质
CN113505209A (zh) 一种面向汽车领域的智能问答***
CN116820429B (zh) 代码处理模型的训练方法、装置、电子设备及存储介质
CN114904270B (zh) 虚拟内容的生成方法及装置、电子设备、存储介质
CN111966812A (zh) 一种基于动态词向量的自动问答方法和存储介质
CN112364132A (zh) 基于依存句法的相似度计算模型和***及搭建***的方法
CN115617955B (zh) 分级预测模型训练方法、标点符号恢复方法及装置
CN112185361B (zh) 一种语音识别模型训练方法、装置、电子设备及存储介质
CN117236338B (zh) 一种稠密实体文本的命名实体识别模型及其训练方法
CN114218379A (zh) 一种面向智能问答***的无法回答问题的归因方法
CN113609284A (zh) 一种融合多元语义的文本摘要自动生成方法及装置
CN114239574A (zh) 一种基于实体和关系联合学习的矿工违规行为知识抽取方法
CN114818717A (zh) 融合词汇和句法信息的中文命名实体识别方法及***
CN112364125A (zh) 一种联合阅读课程学习机制的文本信息抽取***及方法
CN113609326A (zh) 基于外部知识和目标间关系的图像描述生成方法
CN115827838A (zh) 基于故事续写和动态知识库的对话生成方法及***
CN117473879B (zh) 一种自动驾驶仿真场景的生成方法、装置及设备
CN112417890A (zh) 一种基于多样化语义注意力模型的细粒度实体分类方法
Li Research on methods of english text detection and recognition based on neural network detection model
CN116702765A (zh) 一种事件抽取方法、装置及电子设备
CN116483314A (zh) 一种自动化智能活动图生成方法
CN113076421B (zh) 一种社交噪音文本实体关系抽取优化方法及***
CN115048929A (zh) 敏感文本监测方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant