CN108984275A - 基于Unity3D和深度增强学习的智能无人农用驾驶训练方法 - Google Patents
基于Unity3D和深度增强学习的智能无人农用驾驶训练方法 Download PDFInfo
- Publication number
- CN108984275A CN108984275A CN201810980718.XA CN201810980718A CN108984275A CN 108984275 A CN108984275 A CN 108984275A CN 201810980718 A CN201810980718 A CN 201810980718A CN 108984275 A CN108984275 A CN 108984275A
- Authority
- CN
- China
- Prior art keywords
- scene
- unity3d
- farmland
- agricultural
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45504—Abstract machines for programme code execution, e.g. Java virtual machine [JVM], interpreters, emulators
- G06F9/45508—Runtime interpretation or emulation, e g. emulator loops, bytecode interpretation
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
基于Unity3D和深度增强学习的智能无人农用驾驶训练方法,包括步骤1、在Unity3D中建立经典农田场景,经典农田场景中包括多种环境参量;步骤2、由驾驶员基于经典农田场景进行仿真操作,并将操作过程参量化,得到操作参量;步骤3、根据环境参量和操作参量构建卷积神经网络;步骤4、对卷积神经网络进行预训练,得到预训练智能体;步骤5、随机生成动态农田场景,并且在动态农田场景中加入随机环境参量;步骤6、将预训练智能体投入动态农田场景中,利用深度增强学习算法进行自我训练,得到强化智能体;步骤7、在动态农田场景中,提升部分随机环境参量的频率,对强化智能体进行重复训练。本发明能够快速、高效地提高驾驶员的驾驶能力。
Description
技术领域
本发明涉及农机无人驾驶技术领域,具体的说是基于Unity3D和深度增强学习的智能无人农用驾驶训练方法。
背景技术
随着科技的发展,农业机械越来越趋向于智能化,农业机械自动驾驶技术是高效农业的关键技术。实际生产生活农机所处的自然环境有很多未知的问题需要处理,农机在作业时可能会遇到电线杆、人以及其他机械等障碍物或接近地头,此时农机需要自动做出避障决策。不同的农田又需要不同的路径规划,从而使农机能够更加高效的作业。由此才能做到对人和农机的安全保护,同时又能最大的发挥自主导航农业车辆的生产效率。如何让农机适应各种意想不到的复杂场景,是智能农机安全的实现自主无人作业的一个关键问题。
近年来,深度强化学习在学术界发展迅猛,尤其在复杂环境中的控制任务中表现不俗。深度学习在很多传统的识别任务中,识别率都获得了显著的提高。许多其他领域也尝试用深度学习来解决一些本领域的问题。深度学习应用在物体检测的应用已经有了一些研究,尤其是与强化学习的结合,展现了其独特的优势。深度强化学习是深度学习与强化学习相结合的一个领域,它能够实现从感知到动作的端对端学习的一种全新的方法。简单的说,就是和人类一样,输入感知信息比如视觉,然后通过深度神经网络,直接输出动作。
在中国专利CN201710156019.9(用于农机无人驾驶的避障路径规划及其控制方法)中公开了一种农机无人驾驶的避障路径规划及其控制方法,通过传感器获取农机环境信息做出避障决策,使用改进的最短切线法计算出一条理论避障路径,利用曲线的路径优化方法优化理论避障路径得到实际避障路径。这种避障方法只能做到探测是否存在障碍物以及进行单纯的绕行避障,并且只能做到针对局部某一静态障碍物进行规避。这种避障方法规避障碍的方式过于单一,智能程度较浅。
发明内容
为了解决现有技术中的不足,本发明提供一种基于Unity3D和深度增强学习的智能无人农用驾驶训练方法,能够使智能体在计算机环境中进行农机驾驶训练,并且提供大量的复杂环境来提高智能体的驾驶能力。
为了实现上述目的,本发明采用的具体方案为:基于Unity3D和深度增强学习的智能无人农用驾驶训练方法,包括如下步骤:
步骤1、在Unity3D中建立经典农田场景,经典农田场景中包括多种环境参量;
步骤2、由驾驶员基于经典农田场景进行仿真操作,并将操作过程参量化,得到操作参量;
步骤3、根据环境参量和操作参量构建卷积神经网络;
步骤4、对卷积神经网络进行预训练,得到预训练智能体;
步骤5、随机生成动态农田场景,并且在动态农田场景中加入随机环境参量;
步骤6、将预训练智能体投入动态农田场景中,利用深度增强学习算法进行自我训练,得到强化智能体;
步骤7、在动态农田场景中,提升部分随机环境参量的频率,对强化智能体进行重复训练。
所述步骤1中,环境参量包括天气、地貌、场景和操作规范。
所述步骤2中,操作参量包括油门动作、刹车动作和方向盘动作。
所述步骤3中,以环境参量作为卷积神经网络的输入,并且记为X,以操作参量作为卷积神经网络的输出,并且记为y,将驾驶员操作数据记为t,则卷积神经网络的平方误差为
所述步骤4中,对卷积神经网络进行预训练的方法包括:
步骤4.1、利用平方误差E根据链式法则计算卷积神经网络权重w的偏导数,具体方法为其中o为神经元的输出,net为神经元的输入;
步骤4.2、引入学***方误差和权重的偏导数对权重w进行更新,具体方法为
所述步骤5中,随机环境参量还包括移动障碍物、天气变化和交通限制。
所述步骤6中,利用深度增强学习算法进行自我训练的方法包括:
步骤6.1、构建策略网络,以随机环境参量作为策略网络的输入,以智能体为了应对随机环境参量做出的操作作为输出;
步骤6.2、在策略网络中加入奖励机制;
步骤6.3、依照预训练模型中的卷积神经网络结构设置Actor网络和Critic网络;
步骤6.4、通过Ornstein-Uhlenbeck过程加入随机参数;
步骤6.5、通过经验回放对Actor网络进行更新。
所述步骤6.1中,策略网络表示为πθ(s,α)=P[α|s,θ]。
所述步骤6.2中,引入衰减系数γ,r为每个状态的奖励值,总的奖励机制表示为R=r1+γ2r2+......γnrn。
所述步骤6.4中,通过Ornstein-Uhlenbeck过程加入随机参数的方法表示为dxt=θ(μ-xt)dt+σdWt,其中的θ表示变量向均值变化的速度,μ表示均值,σ为过程的自由度,x和W代表过程作用的控制量。
有益效果:本发明通过Unity3D平台进行多类型多场景农田仿真,并且基于深度强化学习算法使智能体能够在计算机中获得大量场景的经验,提高智能体工作效率并增大***的稳定性,以防止在现实场景中遇到突发状况无法处理的情况。
附图说明
图1是本发明的流程图;
图2是本发明的卷积神经网络结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1和2,图1是本发明的流程图,图2是本发明的卷积神经网络结构示意图。
基于Unity3D和深度增强学习的智能无人农用驾驶训练方法,包括步骤1至7。
步骤1、在Unity3D中建立经典农田场景,经典农田场景中包括多种环境参量,环境参量包括天气、地貌、场景和操作规范。
步骤2、由驾驶员基于经典农田场景进行仿真操作,并将操作过程参量化,得到操作参量,操作参量包括油门动作、刹车动作和方向盘动作。
步骤3、根据环境参量和操作参量构建卷积神经网络,具体的说,以环境参量作为卷积神经网络的输入,并且记为X,以操作参量作为卷积神经网络的输出,并且记为y,将驾驶员操作数据记为t,则卷积神经网络的平方误差为
步骤4、对卷积神经网络进行预训练,得到预训练智能体,具体方法包括步骤4.1至4.2。
步骤4.1、利用平方误差E根据链式法则计算卷积神经网络权重w的偏导数,具体方法为其中o为神经元的输出,net为神经元的输入。
步骤4.2、引入学***方误差和权重的偏导数对权重w进行更新,具体方法为
步骤5、随机生成动态农田场景,并且在动态农田场景中加入随机环境参量,随机环境参量还包括移动障碍物、天气变化和交通限制。
步骤6、将预训练智能体投入动态农田场景中,利用深度增强学习算法进行自我训练,得到强化智能体,具体方法包括步骤6.1至6.5。
步骤6中,利用深度增强学习算法进行自我训练的方法包括步骤6.1至6.5。
步骤6.1、构建策略网络,以随机环境参量作为策略网络的输入,以智能体为了应对随机环境参量做出的操作作为输出,策略网络表示为πθ(s,α)=P[α|s,θ]。
步骤6.2、在策略网络中加入奖励机制,引入衰减系数γ,r为每个状态的奖励值,总的奖励机制表示为R=r1+γ2r2+......γnrn。
步骤6.3、依照预训练模型中的卷积神经网络结构设置Actor网络和Critic网络。
步骤6.4、通过Ornstein-Uhlenbeck过程加入随机参数,具体方法表示为dxt=θ(μ-xt)dt+σdWt,其中的θ表示变量向均值变化的速度,μ表示均值,σ为过程的自由度,x和W代表过程作用的控制量。
步骤6.5、通过经验回放对Actor网络进行更新。
步骤7、在动态农田场景中,提升部分随机环境参量的频率,对强化智能体进行重复训练。具体的说是针对现实中不易采集数据,但容易发生的危险场景进行大量重复训练,使得智能体掌握应对此类场景的能力。
本发明通过Unity3D平台进行多类型多场景农田仿真,并且基于深度强化学习算法使智能体能够在计算机中获得大量场景的经验,提高智能体工作效率并增大***的稳定性,以防止在现实场景中遇到突发状况无法处理的情况。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.基于Unity3D和深度增强学习的智能无人农用驾驶训练方法,其特征在于:包括如下步骤:
步骤1、在Unity3D中建立经典农田场景,经典农田场景中包括多种环境参量;
步骤2、由驾驶员基于经典农田场景进行仿真操作,并将操作过程参量化,得到操作参量;
步骤3、根据环境参量和操作参量构建卷积神经网络;
步骤4、对卷积神经网络进行预训练,得到预训练智能体;
步骤5、随机生成动态农田场景,并且在动态农田场景中加入随机环境参量;
步骤6、将预训练智能体投入动态农田场景中,利用深度增强学习算法进行自我训练,得到强化智能体;
步骤7、在动态农田场景中,提升部分随机环境参量的频率,对强化智能体进行重复训练。
2.如权利要求1所述的基于Unity3D和深度增强学习的智能无人农用驾驶训练方法,其特征在于:所述步骤1中,环境参量包括天气、地貌、场景和操作规范。
3.如权利要求1所述的基于Unity3D和深度增强学习的智能无人农用驾驶训练方法,其特征在于:所述步骤2中,操作参量包括油门动作、刹车动作和方向盘动作。
4.如权利要求1所述的基于Unity3D和深度增强学***方误差为
5.如权利要求4所述的基于Unity3D和深度增强学习的智能无人农用驾驶训练方法,其特征在于:所述步骤4中,对卷积神经网络进行预训练的方法包括:
步骤4.1、利用平方误差E根据链式法则计算卷积神经网络权重w的偏导数,具体方法为
其中o为神经元的输出,net为神经元的输入;
步骤4.2、引入学***方误差和权重的偏导数对权重w进行更新,具体方法为
6.如权利要求5所述的基于Unity3D和深度增强学习的智能无人农用驾驶训练方法,其特征在于:所述步骤5中,随机环境参量还包括移动障碍物、天气变化和交通限制。
7.如权利要求6所述的基于Unity3D和深度增强学习的智能无人农用驾驶训练方法,其特征在于:所述步骤6中,利用深度增强学习算法进行自我训练的方法包括:
步骤6.1、构建策略网络,以随机环境参量作为策略网络的输入,以智能体为了应对随机环境参量做出的操作作为输出;
步骤6.2、在策略网络中加入奖励机制;
步骤6.3、依照预训练模型中的卷积神经网络结构设置Actor网络和Critic网络;
步骤6.4、通过Ornstein-Uhlenbeck过程加入随机参数;
步骤6.5、通过经验回放对Actor网络进行更新。
8.如权利要求7所述的基于Unity3D和深度增强学习的智能无人农用驾驶训练方法,其特征在于:所述步骤6.1中,策略网络表示为πθ(s,α)=P[α|s,θ],其中s为当前状态,α为所采取的行为,θ为策略参数。
9.如权利要求8所述的基于Unity3D和深度增强学习的智能无人农用驾驶训练方法,其特征在于:所述步骤6.2中,引入衰减系数γ,r为每个状态的奖励值,总的奖励机制表示为R=r1+γ2r2+......γnrn。
10.如权利要求9所述的基于Unity3D和深度增强学习的智能无人农用驾驶训练方法,其特征在于:所述步骤6.4中,通过Ornstein-Uhlenbeck过程加入随机参数的方法表示为dxt=θ(μ-xt)dt+σdWt,其中的θ表示变量向均值变化的速度,μ表示均值,σ为过程的自由度,x和W代表过程作用的控制量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810980718.XA CN108984275A (zh) | 2018-08-27 | 2018-08-27 | 基于Unity3D和深度增强学习的智能无人农用驾驶训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810980718.XA CN108984275A (zh) | 2018-08-27 | 2018-08-27 | 基于Unity3D和深度增强学习的智能无人农用驾驶训练方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108984275A true CN108984275A (zh) | 2018-12-11 |
Family
ID=64547096
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810980718.XA Pending CN108984275A (zh) | 2018-08-27 | 2018-08-27 | 基于Unity3D和深度增强学习的智能无人农用驾驶训练方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108984275A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109946995A (zh) * | 2019-03-26 | 2019-06-28 | 湖北亿咖通科技有限公司 | 自动驾驶的仿真测试方法、装置及智能终端 |
CN110824954A (zh) * | 2019-10-24 | 2020-02-21 | 北京仿真中心 | 智能体训练方法及***、计算机设备、可读存储介质 |
CN113706725A (zh) * | 2021-08-31 | 2021-11-26 | 的卢技术有限公司 | 一种基于unity ML插件的可移动环境的实现方法 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106842925A (zh) * | 2017-01-20 | 2017-06-13 | 清华大学 | 一种基于深度强化学习的机车智能操纵方法与*** |
CN106970615A (zh) * | 2017-03-21 | 2017-07-21 | 西北工业大学 | 一种深度强化学习的实时在线路径规划方法 |
CN106981232A (zh) * | 2017-03-27 | 2017-07-25 | 江苏科技大学 | 一种基于unity3D的虚拟驾驶模拟器 |
CN107392189A (zh) * | 2017-09-05 | 2017-11-24 | 百度在线网络技术(北京)有限公司 | 用于确定无人车的驾驶行为的方法和装置 |
CN107491072A (zh) * | 2017-09-05 | 2017-12-19 | 百度在线网络技术(北京)有限公司 | 车辆避障方法和装置 |
CN107564363A (zh) * | 2017-09-05 | 2018-01-09 | 百度在线网络技术(北京)有限公司 | 一种用于驾驶模式切换的方法和装置 |
CN107817798A (zh) * | 2017-10-30 | 2018-03-20 | 洛阳中科龙网创新科技有限公司 | 一种基于深度学习***的农用机械避障方法 |
US20180129974A1 (en) * | 2016-11-04 | 2018-05-10 | United Technologies Corporation | Control systems using deep reinforcement learning |
US20180165602A1 (en) * | 2016-12-14 | 2018-06-14 | Microsoft Technology Licensing, Llc | Scalability of reinforcement learning by separation of concerns |
CN108255182A (zh) * | 2018-01-30 | 2018-07-06 | 上海交通大学 | 一种基于深度强化学习的服务机器人行人感知避障方法 |
CN108268887A (zh) * | 2017-12-15 | 2018-07-10 | 西安电子科技大学 | 基于虚拟驾驶与eeg检测的驾驶人安全意识评估方法 |
CN108333959A (zh) * | 2018-03-09 | 2018-07-27 | 清华大学 | 一种基于卷积神经网络模型的机车节能操纵方法 |
CN108427961A (zh) * | 2018-02-11 | 2018-08-21 | 陕西师范大学 | 基于卷积神经网络的合成孔径聚焦成像深度评估方法 |
-
2018
- 2018-08-27 CN CN201810980718.XA patent/CN108984275A/zh active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180129974A1 (en) * | 2016-11-04 | 2018-05-10 | United Technologies Corporation | Control systems using deep reinforcement learning |
US20180165602A1 (en) * | 2016-12-14 | 2018-06-14 | Microsoft Technology Licensing, Llc | Scalability of reinforcement learning by separation of concerns |
CN106842925A (zh) * | 2017-01-20 | 2017-06-13 | 清华大学 | 一种基于深度强化学习的机车智能操纵方法与*** |
CN106970615A (zh) * | 2017-03-21 | 2017-07-21 | 西北工业大学 | 一种深度强化学习的实时在线路径规划方法 |
CN106981232A (zh) * | 2017-03-27 | 2017-07-25 | 江苏科技大学 | 一种基于unity3D的虚拟驾驶模拟器 |
CN107392189A (zh) * | 2017-09-05 | 2017-11-24 | 百度在线网络技术(北京)有限公司 | 用于确定无人车的驾驶行为的方法和装置 |
CN107491072A (zh) * | 2017-09-05 | 2017-12-19 | 百度在线网络技术(北京)有限公司 | 车辆避障方法和装置 |
CN107564363A (zh) * | 2017-09-05 | 2018-01-09 | 百度在线网络技术(北京)有限公司 | 一种用于驾驶模式切换的方法和装置 |
CN107817798A (zh) * | 2017-10-30 | 2018-03-20 | 洛阳中科龙网创新科技有限公司 | 一种基于深度学习***的农用机械避障方法 |
CN108268887A (zh) * | 2017-12-15 | 2018-07-10 | 西安电子科技大学 | 基于虚拟驾驶与eeg检测的驾驶人安全意识评估方法 |
CN108255182A (zh) * | 2018-01-30 | 2018-07-06 | 上海交通大学 | 一种基于深度强化学习的服务机器人行人感知避障方法 |
CN108427961A (zh) * | 2018-02-11 | 2018-08-21 | 陕西师范大学 | 基于卷积神经网络的合成孔径聚焦成像深度评估方法 |
CN108333959A (zh) * | 2018-03-09 | 2018-07-27 | 清华大学 | 一种基于卷积神经网络模型的机车节能操纵方法 |
Non-Patent Citations (2)
Title |
---|
刘全 等: "深度强化学习综述", 《计算机学报》 * |
翟建伟: "基于深度Q网络算法与模型的研究", 《中国优秀硕士学位论文全文数据库》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109946995A (zh) * | 2019-03-26 | 2019-06-28 | 湖北亿咖通科技有限公司 | 自动驾驶的仿真测试方法、装置及智能终端 |
CN110824954A (zh) * | 2019-10-24 | 2020-02-21 | 北京仿真中心 | 智能体训练方法及***、计算机设备、可读存储介质 |
CN113706725A (zh) * | 2021-08-31 | 2021-11-26 | 的卢技术有限公司 | 一种基于unity ML插件的可移动环境的实现方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yang et al. | A new robot navigation algorithm based on a double-layer ant algorithm and trajectory optimization | |
CN108984275A (zh) | 基于Unity3D和深度增强学习的智能无人农用驾驶训练方法 | |
CN105137967B (zh) | 一种深度自动编码器与q学习算法相结合的移动机器人路径规划方法 | |
CN106022463B (zh) | 基于改进粒子群算法的个性化学习路径优化方法 | |
CN106843235A (zh) | 一种面向无人自行车的人工势场路径规划法 | |
CN106444738A (zh) | 基于动态运动基元学习模型的移动机器人路径规划方法 | |
CN104298239B (zh) | 一种室内移动机器人增强地图学习路径规划方法 | |
CN104317293B (zh) | 一种改进蚁群算法的城市救援智能体动态路径规划方法 | |
CN108444489A (zh) | 一种改进rrt算法的路径规划方法 | |
CN106441308A (zh) | 一种基于自适应权重鸽群算法的无人机航路规划方法 | |
CN108037758A (zh) | 一种基于改进afsa的移动机器人路径规划方法 | |
CN106705970A (zh) | 一种基于蚁群算法的多无人机协同路径规划方法 | |
CN110488872A (zh) | 一种基于深度强化学习的无人机实时路径规划方法 | |
CN110472738A (zh) | 一种基于深度强化学习的无人艇实时避障算法 | |
CN106022471A (zh) | 基于粒子群优化算法的小波神经网络模型船舶横摇实时预测方法 | |
CN108594804A (zh) | 基于深度q网络配送小车的自动行驶控制方法 | |
CN107562053A (zh) | 一种基于模糊q学习的六足机器人避障方法 | |
CN109800517B (zh) | 一种改进的磁流变阻尼器逆向建模方法 | |
US11911902B2 (en) | Method for obstacle avoidance in degraded environments of robots based on intrinsic plasticity of SNN | |
Xia et al. | Research on collision avoidance algorithm of unmanned surface vehicle based on deep reinforcement learning | |
CN107024220B (zh) | 基于强化学习蟑螂算法的机器人路径规划方法 | |
CN117406762A (zh) | 一种基于分段式强化学习的无人机远程控制算法 | |
Zhao et al. | A fast robot path planning algorithm based on bidirectional associative learning | |
Zhang et al. | Path planning method for unmanned surface vehicle based on RRT* and DWA | |
CN109298710A (zh) | 基于人机交互的两轮自平衡车主动跟随复合控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181211 |