CN103680496B - 基于深层神经网络的声学模型训练方法、主机和*** - Google Patents

基于深层神经网络的声学模型训练方法、主机和*** Download PDF

Info

Publication number
CN103680496B
CN103680496B CN201310704701.9A CN201310704701A CN103680496B CN 103680496 B CN103680496 B CN 103680496B CN 201310704701 A CN201310704701 A CN 201310704701A CN 103680496 B CN103680496 B CN 103680496B
Authority
CN
China
Prior art keywords
deep
copy
network
neural
neutral net
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310704701.9A
Other languages
English (en)
Other versions
CN103680496A (zh
Inventor
贾磊
苏丹
胡娜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201310704701.9A priority Critical patent/CN103680496B/zh
Publication of CN103680496A publication Critical patent/CN103680496A/zh
Application granted granted Critical
Publication of CN103680496B publication Critical patent/CN103680496B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Circuit For Audible Band Transducer (AREA)

Abstract

本发明公开了一种基于深层神经网络的声学模型训练方法、主机和***。所述基于深层神经网络的声学模型方法包括:算主机从主控主机获取原始深层神经网络的副本深层神经网络;所述运算主机基于训练数据对副本深层神经网络进行训练,且按照设定规律进入停止状态;当所述运算主机处于停止状态时,将所述副本深层神经网络的加权参数的变化量提供给所述主控主机;所述运算主机接收所述主控主机发送的原始深层神经网络的加权参数绝对值,并根据加权参数绝对值更新副本深层神经网络的加权参数。本发明公开的声学模型训练方法、主机和***利用多台主机异步、并行的进行深层神经网络训练,大幅提高了深层神经网络训练的效率。

Description

基于深层神经网络的声学模型训练方法、主机和***
技术领域
本发明涉及语音识别技术领域,尤其涉及一种基于深层神经网络的声学模型训练方法、主机和***。
背景技术
目前,神经网络已经成为语音识别的一条新途径。由于深层神经网络反映了人脑功能的基本特征,故具有自组织性、自适应性和连续学习能力等特点,特别适合于解决像语音识别这类模拟人的认知过程和智能处理能力,难以用算法来描述而又有大量样本可供学习的问题。
但是,由于深层神经网络一般具有较大的规模,训练深层神经网络需要的样本数据的规模也较大,造成使用普通的计算装置进行用于语音识别的深层神经网络的训练需要耗费特别长的时间,也就是说,深层神经网络的训练效率不高。
图形处理器(GPU)是一种专门为处理图形显示而设计的处理芯片。由于图形处理器具有不同的用途,其架构从一开始就是为大量并行计算而优化设计的,因此它十分适合被用于深层神经网络语音模型的训练,以提供训练效率。但是,现有的主机最多只能挂载四个图形处理器,因此,即使采用图形处理器,深层神经网络训练的训练效率仍不能令人满意。
发明内容
有鉴于此,本发明提出一种基于深层神经网络的声学模型训练方法、主机和***,以提高基于深层神经网络的声学模型训练的训练效率。
在第一方面,本发明实施例提供了一种基于深层神经网络的声学模型训练方法,所述方法包括:
主控主机将原始深层神经网络的各副本深层神经网络下发给至少一个运算主机,以指示运算主机基于训练数据对副本深层神经网络进行训练;
主控主机定时查询各所述运算主机的状态,若查询到处于训练停止状态的运算主机,获取停止状态运算主机上副本深层神经网络的加权参数的变化量;
主控主机根据所述停止状态运算主机上副本深层神经网络的加权参数的变化量,更新主控主机上原始深层神经网络的加权参数;
主控主机利用更新后的原始深层神经网络的加权参数绝对值更新所述停止状态运算主机上副本深层神经网络的加权参数绝对值。
在第二方面,本发明实施例提供了一种基于深层神经网络的声学模型训练方法,所述方法包括:
运算主机从主控主机获取原始深层神经网络的副本深层神经网络;
所述运算主机基于训练数据对副本深层神经网络进行训练,且按照设定规律进入停止状态;
当所述运算主机处于停止状态时,将所述副本深层神经网络的加权参数的变化量提供给所述主控主机;
所述运算主机接收所述主控主机发送的原始深层神经网络的加权参数绝对值,并根据加权参数绝对值更新副本深层神经网络的加权参数。
在第三方面,本发明实施例提供了一种基于深层神经网络的声学模型训练的主控主机,所述主控主机包括:
深层神经网络下发模块,用于将原始深层神经网络的各副本深层神经网络下发给至少一个运算主机,以指示运算主机基于训练数据对副本深层神经网络进行训练;
加权参数变化量获取模块,用于定时查询各所述运算主机的状态,若查询到处于训练停止状态的运算主机,获取停止状态运算主机上副本深层神经网络的加权参数的变化量;
原始深层神经网络更新模块,用于根据所述停止状态运算主机上副本深层神经网络的加权参数的变化量,更新主控主机上原始深层神经网络的加权参数;
副本深层神经网络更新模块,用于利用更新后的原始深层神经网络的加权参数绝对值更新所述停止状态运算主机上副本深层神经网络的加权参数绝对值。
在第四方面,本发明实施例提供了一种基于深层神经网络的声学模型训练的运算主机,所述运算主机包括:
副本深层神经网络获取模块,用于从主控主机获取原始深层神经网络的副本深层神经网络;
副本深层神经网络训练模块,用于基于训练数据对副本深层神经网络进行训练,且按照设定规律进入停止状态;
加权参数变化量提供模块,用于当所述运算主机处于停止状态时,将所述副本深层神经网络的加权参数的变化量提供给所述主控主机;
副本深层神经网络更新模块,用于接收所述主控主机发送的原始深层神经网络的加权参数绝对值,并根据加权参数绝对值更新副本深层神经网络的加权参数。
在第五方面,本发明实施例提供了一种基于深层神经网络的声学模型训练***,所述***包括一个本发明任意实施例提供的主控主机,以及至少一个本发明任意实施例提供的运算主机。
上述实施例提供的基于深层神经网络的声学模型训练方法、主机和***,通过利用至少一个运算主机对副本深层神经网络进行训练,主控主机根据所述运算主机上副本深层神经网络的加权参数的变化量更新主控主机上原始深层神经网络的加权参数,并利用更新后的主控主机上原始深层神经网络的加权参数更新运算主机上副本深层神经网络的加权参数,使得能够利用多台主机异步、并行的进行深层神经网络训练,大幅提高了深层神经网络训练的效率。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1是本发明第一实施例提供的基于深层神经网络的声学模型训练方法的流程图;
图2是本发明第二实施例提供的基于深层神经网络的声学模型训练方法的流程图;
图3是本发明第三实施例提供的基于深层神经网络的声学模型训练方法的流程图;
图4是本发明第四实施例提供的副本深层神经网络训练的流程图;
图5是本发明第五实施例提供的基于深层神经网络的声学模型训练方法的流程图;
图6是本发明第六实施例提供的基于深层神经网络的声学模型训练方法的流程图;
图7是本发明第七实施例提供的基于深层神经网络的声学模型训练的主控主机的结构图;
图8是本发明第八实施例提供的基于深层神经网络的声学模型训练的主控主机的结构图;
图9是本发明第九实施例提供的基于深层神经网络的声学模型训练的运算主机的结构图;
图10是本发明第十实施例提供的基于深层神经网络的声学模型训练的运算主机的结构图;
图11是本发明第十一实施例提供的基于深层神经网络的声学模型训练的运算主机的结构图;
图12是本发明第十二实施例提供的基于深层神经网络的声学模型训练***的结构图;
图13是本发明第十三实施例提供的基于深层神经网络的声学模型训练***的结构图;
图14是本发明第十四实施例提供的基于深层神经网络的声学模型训练***的交互过程示意图;
图15是本发明第十五实施例提供的基于深层神经网络的声学模型训练***的交互过程示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部内容。
图1示出了本发明的第一实施例。
图1是本发明第一实施例提供的基于深层神经网络的声学模型训练方法的流程图。参见图1,本发明实施例提供的训练方法应用于基于深层神经网络的声学模型训练的***中,该***包括一个主控主机和至少一个运算主机,通常需要多个运算主机实现并行计算。本实施例的方法适用于主控主机中,所述基于深层神经网络的声学模型训练方法包括:
步骤S110,主控主机将原始深层神经网络的各副本深层神经网络下发给至少一个运算主机,以指示运算主机基于训练数据对副本深层神经网络进行训练。
在本实施例中,运算主机上存储的深层神经网络是主控主机上存储的原始深层神经网络的副本。在所述基于深层神经网络的声学模型训练方法中,主控主机将其建立的原始深层神经网络下发给至少一个运算主机,作为副本深层神经网络,以指示运算主机基于训练数据对副本深层神经网络进行训练。训练数据可以由主控主机向运算主机提供,也可以由运算主机通过其他途径获取。
步骤S120,主控主机定时查询各所述运算主机的状态,若查询到处于训练停止状态的运算主机,获取停止状态运算主机上副本深层神经网络的加权参数的变化量。
运算主机对副本深层神经网络进行训练,并且按照设定规律进入停止状态。主控主机在下发副本深层神经网络后,定时查询各所述运算主机的状态,若查询到处于训练停止状态的运算主机,获取停止状态运算主机上副本深层神经网络的加权参数的变化量。停止状态表明运算主机的副本深层神经网络不会再变化,此时进行参数获取,可保持主控主机和运算主机的同步。
步骤S130,主控主机根据所述停止状态运算主机上副本深层神经网络的加权参数的变化量,更新主控主机上原始深层神经网络的加权参数。
经过运算主机的训练,所述停止状态运算主机上副本深层神经网络的各个加权参数的取值都发生了变化。副本深层神经网络的加权参数的变化量是运算主机基于训练数据对副本深层神经网络进行训练的结果。因此,主控主机在获取到停止状态运算主机上副本深层神经网络的加权参数的变化量后,根据所述停止状态运算主机上副本深层神经网络的加权参数的变化量,更新主控主机上原始深层神经网络的加权参数。对于深层神经网络的训练实际上就是在不断训练调整其中的各加权参数,以使神经网络更符合实际情况,具体训练方式本发明不过多关注。在本实施例中,当运算主机训练后,申请网络的加权参数会发生变化,形成加权参数的变化量,提供给主控主机。
步骤S140,主控主机利用更新后的原始深层神经网络的加权参数绝对值更新所述停止状态运算主机上副本深层神经网络的加权参数。
主控主机在本机原始深层神经网络加权参数的基础上叠加变化量。主控主机原始深层神经网络的加权参数与运算主机副本深层神经网络的加权参数,可能相同,也可能经多轮叠加更新后不同。各运算主机将其训练的加权参数变化量提供给主控主机,以分别更新原始深层神经网络。主控主机在利用副本深层神经网络的加权参数的变化量更新原始深层神经网络的加权参数后,利用原始深层神经网络的加权参数的绝对值更新运算主机上副本深层神经网络的加权参数,以保持主控主机上存储的原始深层神经网络与运算主机上存数的副本深层神经网络之间的同步。
需要说明的是,在本实施例中,用于训练副本深层神经网络的训练数据可以被预先分配至各运算主机,因此,主控主机可以不必多次执行训练数据分配的操作。
本实施例通过主控主机向运算主机下发副本深层神经网络,对运算主机的状态进行查询,并在运算主机处于停止状态时用副本深层神经网络的加权参数的变化量更新原始深层神经网络的加权参数,再用原始深层神经网络的加权参数的绝对值更新运算主机上的副本深层神经网络,使得多台主机异步、并行的进行深层神经网络训练,大幅提高了深层神经网络训练的训练效率。
图2是示出了本发明的第二实施例。
图2是本发明第二实施例提供的基于深层神经网络的声学模型训练方法的流程图。所述基于深层神经网络的声学模型训练方法以上述实施例为基础,进一步的,在定时查询运算主机的状态之前,本实施例的训练方法还包括:主控主机将各份训练数据进行调度,分配给相同或不同的运算主机的步骤。
训练数据的调度分配,可以在初次下发副本深层神经网络时下发,也可以在每次运算主机更新加权参数后下发,或者按照训练数据的更新需求下发。
与本发明第一实施例相比,本实施例中增加了主控主机将训练数据分配给个运算主机的步骤。优选的主控主机可以根据各运算主机的运算能力动态的分配训练数据,以进一步提高基于深层神经网络的声学模型训练的训练效率。
本实施例在运算主机开始对其上的深层神经网络进行训练之前,利用主控主机对各运算主机分配训练数据,使得主控主机能够根据运算主机的运算能力动态分配训练数据,进一步提高了深层神经网络训练的训练效率。
图3示出了本发明的第三实施例。
图3是本发明第三实施例提供的基于深层神经网络的声学模型训练方法的流程图。参见图3,本实施例提供的训练方法可应用于任意一台运算主机上,所述基于深层神经网络的声学模型训练方法包括:
步骤S310,运算主机从主控主机获取原始深层神经网络的副本深层神经网络。
为了保证主控主机上深层神经网络与运算主机上深层神经网络的网络结构的统一,在本实施例中,由主控主机建立深层神经网络,并将建立的深层神经网络的副本数据下发至各个运算主机。运算主机则从主控主机获取原始深层神经网络的副本深层神经网络。
步骤S320,所述运算主机基于当前的训练数据对副本深层神经网络进行训练,且按照设定规律进入停止状态。
步骤S330,当所述运算主机处于停止状态时,将所述副本深层神经网络的加权参数的变化量提供给所述主控主机。
在本实施例中,运算主机使用对分配给它的所有训练数据对其上存储的副本深层神经网络完成训练后才停止运算。由于主控主机会定时查询所述运算主机的状态,所以当任何一个运算主机完成分配给它的运算任务后,主控主机会查询到它已经处于停止状态。此时,运算主机会根据主控主机的请求将其上存储的副本深层神经网络的加权参数的变化量提供给所述主控主机。
步骤S340,所述运算主机接收所述主控主机发送的原始深层神经网络的加权参数绝对值,并根据加权参数绝对值更新副本深层神经网络的加权参数。
主控主机接收到运算主机提供的副本深层神经网络的加权参数的变化量后,利用副本深层神经网络的加权参数的变化量更新原始深层神经网络的加权值。在完成利用副本深层神经网络的加权参数的变化量更新原始深层神经网络的加权值后,所述主控主机会将所述原始深层神经网络的加权参数的绝对值下发至处于停止状态的运算主机。运算主机接收到主控主机下发的原始深层神经网络的加权参数的绝对值后,用原始深层神经网络的加权参数的绝对值更新副本深层神经网络的加权参数。
优选是,所述运算主机配备有一个中央处理器(CPU)及至少一个图形处理器(GPU),并且利用中央处理器与图形处理器之间的并行协同计算对副本深层神经网络进行训练,以提高深层神经网络训练的训练效率。
本实施例通过从主控主机获取副本深层神经网络,利用训练数据对副本深层神经网络进行训练,将训练得到的副本深层神经网络的加权参数的变化量提供给主控主机,并根据主控主机上原始深层神经网络的加权参数更新副本深层神经网络的加权参数,使得多台主机异步、并行的进行深层神经网络训练,大幅提高了深层神经网络训练的训练效率。
图4示出了本发明第四实施例。
图4是本发明第四实施例提供的副本深层神经网络训练的流程图。参见图4,在上述实施例中,所述运算主机基于训练数据对副本深层神经网络进行训练的操作优选包括:
步骤S410,运算主机在运算主机的至少一个图形处理器GPU上分别对副本深层神经网络进行训练。
运算主机在至少一个图形处理器上分别对分本深层神经网络进行训练时,可以采用随机梯度下降法、牛顿法或共轭梯度法计算所述副本深层神经网络的加权参数。
步骤S420,运算主机在运算主机的中央处理器CPU上轮询各GPU上训练的副本深层神经网络的加权参数的变化量。
步骤S430,运算主机根据各GPU上训练的副本深层神经网络的加权参数的变化量在CPU上更新副本深层神经网络的加权参数。
步骤S440,运算主机根据更新后CPU上深层神经网络的加权参数,更新各GPU上的副本深层神经网络的加权参数。
本实施例利用GPU自身的架构十分适合用于并行计算的性质,通过CPU与GPU之间的协同并行计算来大幅提高深层神经网络训练的训练效率。
图5示出了本发明的第五实施例。
图5是本发明第五实施例提供的基于深层神经网络的声学模型训练方法的流程图。所述基于深层神经网络的声学模型训练方法以本发明第三实施例为基础,进一步的,在基于当前的训练数据对副本深层神经网络进行训练时,在针对所述当前的训练数据训练完成时,进入停止状态。具体的,本实施例提供的基于深层神经网络的声学模型训练方法包括:
步骤S510,运算主机从主控主机获取原始深层神经网络的副本深层神经网络。
步骤S520,所述运算主机基于当前的训练数据对副本深层神经网络进行训练,且在针对所述当前的训练数据训练完成时,进入停止状态。
步骤S530,当所述运算主机处于停止状态时,将所述副本深层神经网络的加权参数的变化量提供给所述主控主机。
步骤S540,所述运算主机接收所述主控主机发送的原始深层神经网络的加权参数绝对值,并根据加权参数绝对值更新副本深层神经网络的加权参数。
本实施例通过在针对所述当前的训练数据训练完成时,使运算主机进入停止状态,并在运算主机处于停止状态时,利用运算主机上副本深层神经网络的加权参数的变化量更新主控主机上原始深层神经网络的加权参数,并利用更新后原始深层神经网络的加权参数的绝对值更新运算主机上副本深层神经网络的加权参数的绝对值,使得多台主机异步、并行的进行深层神经网络训练,大幅提高了深层神经网络训练的训练效率。
图6示出了本发明的第六实施例。
图6是本发明第六实施例提供的基于深层神经网络的声学模型训练方法的流程图。所述训练方法以本发明第三实施例为基础,进一步的,在基于当前的训练数据对副本深层神经网络进行训练时,运算主机会按照设定训练间隔时间进入停止状态,并且在根据加权参数绝对值更新副本深层神经网络的加权参数之后,还会重新启动根据当前的训练数据对副本深层神经网络进行训练。具体的,本实施例提供的基于深层神经网络的声学模型训练方法包括:
步骤S610,运算主机从主控主机获取原始深层神经网络的副本深层神经网络。
步骤S620,所述运算主机基于当前的训练数据对副本深层神经网络进行训练,且按照设定训练间隔时间进入停止状态。
与本发明第三实施例相比,运算主机仍然依靠CPU与GPU之间的并行协同计算对副本深层神经网络进行训练,以提高深层神经网络训练的训练效率。并且,在对福分深层神经网络进行训练时,所述运算主机采用随机梯度下降法、牛顿法或共轭梯度法计算所述副本深层神经网络的加权参数。
与本发明第三实施例的不同之处在于,经过设定训练间隔时间的对深层神经网路的训练后,所述运算主机停止对副本深层神经网络进行训练,进入停止状态。
步骤S630,当所述运算主机处于停止状态时,将所述副本深层神经网络的加权参数的变化量提供给所述主控主机。
步骤S640,所述运算主机接收所述主控主机发送的原始深层神经网络的加权参数绝对值,并根据加权参数绝对值更新副本深层神经网络的加权参数。
步骤S650,所述运算主机重新启动根据当前的训练数据对副本深层神经网络进行训练。
本实施例通过经过设定训练间隔时间对深层神经网络的训练后使运算主机进入停止状态,并在完成对原始深层神经网络和副本深层神经网络的加权参数的更新后,重新启动所述运算主机对副本深层神经网络的训练,使得主控主机能够以增量的方式更新原始深层神经网络,有效避免了深层神经网络的过拟合,并且大幅提高了深层神经网络训练的训练效率。
图7示出了本发明的第七实施例。
图7是本发明第五实施例提供的基于深层神经网络的声学模型训练的主控主机的结构图。参见图7,所述基于深层神经网络的声学模型训练的主控主机包括:深层神经网络下发模块710、加权参数变化量获取模块720、原始深层神经网络更新模块730以及副本深层神经网络更新模块740。
所述深层神经网络下发模块710用于将原始深层神经网络的各副本深层神经网络下发给至少一个运算主机,以指示运算主机基于训练数据对副本深层神经网络进行训练。
加权参数变化量获取模块720用于定时查询各所述运算主机的状态,若查询到处于训练停止状态的运算主机,获取停止状态运算主机上副本深层神经网络的加权参数的变化量。
原始深层神经网络更新模块730用于根据所述停止状态运算主机上副本深层神经网络的加权参数的变化量,更新主控主机上原始深层神经网络的加权参数。
副本深层神经网络更新模块740用于利用更新后的原始深层神经网络的加权参数绝对值更新所述停止状态运算主机上副本深层神经网络的加权参数。
本实施例通过主控主机向运算主机下发副本深层神经网络,对运算主机的状态进行查询,并在运算主机处于停止状态时用副本深层神经网络的加权参数的变化量更新原始深层神经网络的加权参数,再用原始深层神经网络的加权参数的绝对值更新运算主机上的副本深层神经网络,使得多台主机异步、并行的进行深层神经网络训练,大幅提高了深层神经网络训练的训练效率。
图8示出了本发明的第八实施例。
图8是本发明第八实施例提供的基于深层神经网络的声学模型训练的主控主机的结构图。所述主控主机以本发明第七实施例为基础,进一步的,所述主控主机还包括训练数据分配模块820。
所述训练数据分配模块820用于将各份训练数据进行调度,分配给相同或不同的运算主机。
本实施例在运算主机开始对其上的深层神经网络进行训练之前,利用主控主机对各运算主机分配训练数据,使得主控主机能够根据运算主机的运算能力动态分配训练数据,进一步提高了深层神经网络训练的训练效率。
图9示出了本发明的第九实施例。
图9是本发明第九实施例提供的基于深层神经网络的声学模型训练的运算主机的结构图。参见图9,所述基于深层神经网络的声学模型训练的运算主机包括:副本神经网络获取模块910、副本深层神经网络训练模块920、加权参数变化量提供模块930以及副本深层神经网络更新模块940。
所述副本深层神经网络获取模块910用于从主控主机获取原始深层神经网络的副本深层神经网络。
所述副本深层神经网络训练模块920用于基于训练数据对副本深层神经网络进行训练,且在针对所述当前的训练数据训练完成时,进入停止状态。
所述加权参数变化量提供模块930用于当所述运算主机处于停止状态时,将所述副本深层神经网络的加权参数的变化量提供给所述主控主机。
所述副本深层神经网络更新模块940用于接收所述主控主机发送的原始深层神经网络的加权参数绝对值,并根据加权参数绝对值更新副本深层神经网络的加权参数。
在本实施例中,所述副本深层神经网络训练模块920优选是包括:深层神经网络训练单元921、加权参数变化量轮询单元922、CPU深层神经网络更新单元923、GPU深层神经网络更新单元924以及单词停止状态进入单元925。
所述深层神经网络训练单元921用于在运算主机的至少一个图形处理器GPU上分别对副本深层神经网络进行训练。
所述加权参数变化量轮询单元922用于在运算主机的中央处理器CPU上轮询各GPU上训练的副本深层神经网络的加权参数的变化量。
所述CPU深层神经网络更新单元923用于根据各GPU上训练的副本深层神经网络的加权参数的变化量在CPU上更新副本深层神经网络的加权参数。
所述GPU深层神经网络更新单元924用于根据更新后CPU上深层神经网络的加权参数,更新各GPU上的副本深层神经网络的加权参数。
所述单次停止状态进入单元925用于按照设定规律进入停止状态。
本实施例通过从主控主机获取副本深层神经网络,利用训练数据对副本深层神经网络进行训练,将训练得到的副本深层神经网络的加权参数的变化量提供给主控主机,并根据主控主机上原始深层神经网络的加权参数更新副本深层神经网络的加权参数,使得多台主机异步、并行的进行深层神经网络训练,大幅提高了深层神经网络训练的训练效率。
图10示出了本发明的第十实施例。
图10是本发明第十实施例提供的基于深层神经网络的声学模型训练的运算主机的结构图。所述运算主机以本发明第九实施例为基础,进一步的,所述副本深层神经网络训练模块1020用于基于训练数据对副本深层神经网络进行训练,且在针对所述当前的训练数据训练完成时,进入停止状态。
在本实施例中,所述副本深层神经网络训练模块1020优选是包括:深层神经网络训练单元1021、加权参数变化量轮询单元1022、CPU深层神经网络更新单元1023、GPU深层神经网络更新单元1024以及单次停止状态进入单元1025。
所述单次停止状态进入单元1025用于在针对所述当前的训练数据训练完成时,进入停止状态。
本实施例通过在针对所述当前的训练数据训练完成时,使运算主机进入停止状态,并在运算主机处于停止状态时,利用运算主机上副本深层神经网络的加权参数的变化量更新主控主机上原始深层神经网络的加权参数,并利用更新后原始深层神经网络的加权参数的绝对值更新运算主机上副本深层神经网络的加权参数的绝对值,使得多台主机异步、并行的进行深层神经网络训练,大幅提高了深层神经网络训练的训练效率。
图11是本发明第十一实施例提供的基于深层神经网络的声学模型训练的运算主机的结构图。所述基于深层神经网络的声学模型训练的运算主机以本发明第九实施例为基础,进一步的,所述副本深层神经网络训练模块1120不再包括单次停止状态进入单元,而是另外包括多次停止状态进入单元1125,用于按照设定训练间隔时间进入停止状态,而且,所述基于深层神经网络的声学模型训练的运算主机还包括训练重启模块1150,用于重新启动对副本深层神经网络的训练。具体的,本实施例提供的基于深层神经网络的声学模型训练方法包括:副本深层神经网络获取模块1110、副本深层神经网络训练模块1120、加权参数变化量提供模块1130、副本深层神经网络更新模块1140以及训练重启模块1150。
所述副本深层神经网络获取模块1110用于从主控主机获取原始深层神经网络的副本深层神经网络。
所述副本深层神经网络训练模块1120用于基于训练数据对副本深层神经网络进行训练,且按照设定训练间隔时间进入停止状态。
所述加权参数变化量提供模块1130用于当所述运算主机处于停止状态时,将所述副本深层神经网络的加权参数的变化量提供给所述主控主机。
所述副本深层神经网络更新模块1140用于接收所述主控主机发送的原始深层神经网络的加权参数绝对值,并根据加权参数绝对值更新副本深层神经网络的加权参数。
所述训练重启模块1150用于根据加权参数绝对值更新副本深层神经网络的加权参数之后,重新启动根据当前的训练数据对副本深层神经网络进行训练。
所述副本深层神经网络训练模块1120优选包括:深层神经网络训练单元1121、加权参数变化量轮询单元1122、CPU深层神经网络更新单元1123、GPU深层神经网络更新单元1124以及多次停止状态进入单元1125。
所述深层神经网络训练单元1121用于在运算主机的至少一个图形处理器GPU上分别对副本深层神经网络进行训练。
所述加权参数变化量轮询单元1122用于在运算主机的中央处理器CPU上轮询各GPU上训练的副本深层神经网络的加权参数的变化量。
所述CPU深层神经网络更新单元1123用于根据各GPU上训练的副本深层神经网络的加权参数的变化量在CPU上更新副本深层神经网络的加权参数。
所述GPU深层神经网络更新单元1124用于根据更新后CPU上深层神经网络的加权参数,更新各GPU上的副本深层神经网络的加权参数。
所述多次停止状态进入单元1125用于按照设定训练间隔时间进入停止状态。
本实施例通过经过设定训练间隔时间对深层神经网络的训练后使运算主机进入停止状态,并在完成对原始深层神经网络和副本深层神经网络的加权参数的更新后,重新启动所述运算主机对副本深层神经网络的训练,使得主控主机能够以增量的方式更新原始深层神经网络,有效避免了深层神经网络的过拟合,并且大幅提高了深层神经网络训练的训练效率。
图12示出了本发明的第十二实施例。
图12是本发明第八实施例提供的基于深层神经网络的声学模型训练***的结构图。参见图12,所述基于深层神经网络的声学模型训练***采用了星型的拓扑结构。即主控主机1201处于所述基于深层神经网络的声学模型训练***的中心,运算主机1202分别于处于拓扑结构中心的主控主机1201相连接。
在这样的拓扑结构下,主控主机1201通过与各个运算主机直接的网络连接分别与每个运算主机进行通信,来分发副本深层神经网络,分配训练数据,获取副本深层神经网络的加权参数的变化量,或者传输原始深层神经网络的加权参数的绝对值。各个运算主机1202也通过与所述主控主机之间的直接的网络连接接收副本深层神经网络,接收训练数据,提供副本深层神经网络的加权参数的变化量,或者获取原始深层神经网络的加权参数的绝对值。
本实施例利用星型拓扑结构连接所述主控主机与运算主机,运用主控主机与运算主机之间的通信连接实现主控主机与运算主机之间的并行计算,并利用主控主机与运算主机之间的并行计算对深层神经网络进行训练,大幅提高了深层神经网络训练的训练效率。
图13示出了本发明第十三实施例。
图13是本发明第十三实施例提供的基于深层神经网络的声学模型训练***的结构图。参见图13,所述基于深层神经网络的声学模型训练***采用了树型的拓扑结构。即主控主机1301处于所述基于深层神经网络的声学模型训练***的顶点,运算主机1302分别处于所述基于深层神经网络的声学模型训练***的各个叶子节点。
在这样的拓扑结构下,主控主机1301按照树型拓扑的层次向运算主机1302发送数据,运算主机1302也按照树型结构的层次向主控主机上报数据。具体的,主控主机1301按照树型结构的层次向运算主机1302分发副本深层神经网络,分配训练数据,获取副本深层神经网络的加权参数的变化量,或者传输原始深层神经网络的加权参数的绝对值。运算主机1302也按照树型结构的层次从主控主机1301接收副本深层神经网络,接收训练数据,提供副本深层神经网络的加权参数的变化量,或者获取原始深层神经网络的加权参数的绝对值。
本实施例利用树型拓扑结构连接所述主控主机与运算主机,运用主控主机与运算主机之间的通信连接实现主控主机与运算主机之间的并行计算,并利用主控主机与运算主机之间的并行计算对深层神经网络进行训练,大幅提高了深层神经网络训练的训练效率。
图14示出了本发明第十四实施例。
图14是本发明第十四实施例提供的基于深层神经网络的声学模型训练***的交互过程示意图。所述深层神经网络的声学模型训练***的交互过程包括:
S1401,运算主机基于训练数据对副本深层神经网络进行训练。
所述运算主机利用CPU与GPU之间的并行协同计算对副本深层神经网络进行训练。具体的,所述运算主机采用随机梯度下降法、牛顿法或共轭梯度法计算所述副本深层神经网络的加权参数。
S1402,运算主机发送副本深层神经网络的加权参数的变化量。
在运算主机对副本深层神经网络进行训练时,主控主机会定时查询运算主机的状态。当运算主机完成基于训练数据对副本深层神经网络的训练时,主控主机向运算主机请求其上存储的副本深层神经网络的加权参数的变化量。此时,运算主机将所述深层神经网络的加权参数的变化量发送至主控主机。
S1403,主控主机根据副本深层神经网络的加权参数变化量更新原始深层神经网络。
S1404,主控主机发送原始深层神经网络的加权参数的绝对值。
主控主机完成根据副本深层神经网络的加权参数的变化量对原始深层神经网络的更新后,向运算主机发送原始深层神经网络的加权参数的绝对值。
S1405,运算主机根据原始深层神经网络的加权参数绝对值更新副本深层神经网络。
在本实施例中,由于运算主机利用训练数据完成对其上存储的副本深层神经网络的训练后,才向主控主机发送副本神经网络的加权参数的变化量,所以主控主机是采取批处理的方式更新原始深层神经网络。
本实施例通过从主控主机获取副本深层神经网络,利用训练数据对副本深层神经网络进行训练,将训练得到的副本深层神经网络的加权参数的变化量提供给主控主机,并根据主控主机上原始深层神经网络的加权参数更新副本深层神经网络的加权参数,使得多台主机异步、并行的进行深层神经网络训练,大幅提高了深层神经网络训练的训练效率。
图15示出了本发明的第十五实施例。
图15是本发明第十五实施例提供的基于深层神经网络的声学模型训练***的交互过程示意图。所述深层神经网络的声学模型训练***中的交互过程包括:
S1501,运算主机基于训练数据对副本深层神经网络进行训练。
S1502,运算主机经过设定训练间隔时间,停止对副本深层神经网络的训练。
运算主机经过设定训练间隔时间的对副本深层神经网络的训练后,停止对副本深层神经网络的训练。
S1503,运算主机发送副本深层神经网络的加权参数的变化量。
在运算主机对副本深层神经网络进行训练时,主控主机会定时查询运算主机的状态。当运算主机经过设定训练间隔时间对副本深层神经网络的训练后,进入停止状态,主控主机向运算主机请求其上存储的副本深层神经网络的加权参数的变化量。此时,运算主机将所述深层神经网络的加权参数的变化量发送至主控主机。
S1504,主控主机根据副本深层神经网络的加权参数变化量更新原始深层神经网络。
S1505,主控主机发送原始深层神经网络的加权参数的绝对值。
S1506,运算主机根据原始深层神经网络的加权参数绝对值更新副本深层神经网络。
S1507,运算主机重新启动对副本深层神经网络的训练。
经过主控主机对原始深层神经网络的更新以及运算主机对副本深层神经网络的更新,主控主机上存储的原始深层神经网络已经与运算主机上存储的副本深层神经网络保持同步。此时,运算主机利用剩余的训练数据再次对副本深层神经网络进行训练。
在本实施例中,由于运算主机经过设定训练间隔时间的对其上存储的副本深层神经网络的训练后,就向主控主机发送副本神经网络的加权参数的变化量,所以主控主机是采取批处理的方式更新原始深层神经网络。
本实施例通过从主控主机获取副本深层神经网络,利用训练数据对副本深层神经网络进行训练,将训练得到的副本深层神经网络的加权参数的变化量提供给主控主机,并根据主控主机上原始深层神经网络的加权参数更新副本深层神经网络的加权参数,使得多台主机异步、并行的进行深层神经网络训练,大幅提高了深层神经网络训练的训练效率。
显然,本领域技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们分布在多个计算装置所组成的网络上,可选地,他们可以用计算机装置可执行的程序代码来实现,从而可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件的结合。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (13)

1.一种基于深层神经网络的声学模型训练方法,其特征在于,包括:
主控主机将原始深层神经网络的各副本深层神经网络下发给至少一个运算主机,以指示运算主机基于训练数据对副本深层神经网络进行训练;
主控主机定时查询各所述运算主机的状态,若查询到处于训练停止状态的运算主机,获取停止状态运算主机上副本深层神经网络的加权参数的变化量;
主控主机根据所述停止状态运算主机上副本深层神经网络的加权参数的变化量,更新主控主机上原始深层神经网络的加权参数;
主控主机利用更新后的原始深层神经网络的加权参数绝对值更新所述停止状态运算主机上副本深层神经网络的加权参数。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
主控主机将各份训练数据进行调度,分配给相同或不同的运算主机。
3.一种基于深层神经网络的声学模型训练方法,其特征在于,包括:
运算主机从主控主机获取原始深层神经网络的副本深层神经网络;
所述运算主机基于训练数据对副本深层神经网络进行训练,且按照设定规律进入停止状态;
当所述运算主机处于停止状态时,将所述副本深层神经网络的加权参数的变化量提供给所述主控主机;
所述运算主机接收所述主控主机发送的原始深层神经网络的加权参数绝对值,并根据加权参数绝对值更新副本深层神经网络的加权参数;
其中,所述原始深层神经网络的加权参数绝对值由所述主控主机根据所述副本深层神经网络的加权参数的变化量更新得到。
4.根据权利要求3所述的方法,其特征在于,所述运算主机基于训练数据对副本深层神经网络进行训练,且按照设定规律进入停止状态包括:
所述运算主机基于当前的训练数据对副本深层神经网络进行训练,且在针对所述当前的训练数据训练完成时,进入停止状态;或
所述运算主机基于当前的训练数据对副本深层神经网络进行训练,且按照设定训练间隔时间进入停止状态,且根据加权参数绝对值更新副本深层神经网络的加权参数之后,还包括:所述运算主机重新启动根据当前的训练数据对副本深层神经网络进行训练。
5.根据权利要求3或4所述的方法,其特征在于,所述运算主机基于训练数据对副本深层神经网络进行训练包括:
运算主机在运算主机的至少一个图形处理器GPU上分别对副本深层神经网络进行训练;
运算主机在运算主机的中央处理器CPU上轮询各GPU上训练的副本深层神经网络的加权参数的变化量;
运算主机根据各GPU上训练的副本深层神经网络的加权参数的变化量在CPU上更新副本深层神经网络的加权参数;
运算主机根据更新后CPU上深层神经网络的加权参数,更新各GPU上的副本深层神经网络的加权参数。
6.根据权利要求5所述的方法,其特征在于,运算主机在运算主机的至少一个GPU上对副本深层神经网络进行训练包括:
运算主机在GPU上采用随机梯度下降法、牛顿法或共轭梯度法计算所述副本深层神经网络的加权参数。
7.一种基于深层神经网络的声学模型训练的主控主机,其特征在于,包括:
深层神经网络下发模块,用于将原始深层神经网络的各副本深层神经网络下发给至少一个运算主机,以指示运算主机基于训练数据对副本深层神经网络进行训练;
加权参数变化量获取模块,用于定时查询各所述运算主机的状态,若查询到处于训练停止状态的运算主机,获取停止状态运算主机上副本深层神经网络的加权参数的变化量;
原始深层神经网络更新模块,用于根据所述停止状态运算主机上副本深层神经网络的加权参数的变化量,更新主控主机上原始深层神经网络的加权参数;
副本深层神经网络更新模块,用于利用更新后的原始深层神经网络的加权参数绝对值更新所述停止状态运算主机上副本深层神经网络的加权参数。
8.根据权利要求7所述的主控主机,其特征在于,还包括:
训练数据分配模块,用于将各份训练数据进行调度,分配给相同或不同的运算主机。
9.一种基于深层神经网络的声学模型训练的运算主机,其特征在于,包括:
副本深层神经网络获取模块,用于从主控主机获取原始深层神经网络的副本深层神经网络;
副本深层神经网络训练模块,用于基于训练数据对副本深层神经网络进行训练,且按照设定规律进入停止状态;
加权参数变化量提供模块,用于当所述运算主机处于停止状态时,将所述副本深层神经网络的加权参数的变化量提供给所述主控主机;
副本深层神经网络更新模块,用于接收所述主控主机发送的原始深层神经网络的加权参数绝对值,并根据加权参数绝对值更新副本深层神经网络的加权参数;
其中,所述原始深层神经网络的加权参数绝对值由所述主控主机根据所述副本深层神经网络的加权参数的变化量更新得到。
10.根据权利要求9所述的运算主机,其特征在于,所述副本深层神经网络训练模块包括:
单次停止状态进入单元,用于基于当前的训练数据对副本深层神经网络进行训练,且在针对所述当前的训练数据训练完成时,进入停止状态;或
多次停止状态进入单元,用于基于当前的训练数据对副本深层神经网络进行训练,且按照设定训练间隔时间进入停止状态;
所述运算主机还包括:
训练重启模块,用于根据加权参数绝对值更新副本深层神经网络的加权参数之后,重新启动根据当前的训练数据对副本深层神经网络进行训练。
11.根据权利要求9或10所述的运算主机,其特征在于,所述副本深层神经网络训练模块还包括:
深层神经网络训练单元,用于在运算主机的至少一个图形处理器GPU上分别对副本深层神经网络进行训练;
加权参数变化量轮询单元,用于在运算主机的中央处理器CPU上轮询各GPU上训练的副本深层神经网络的加权参数的变化量;
CPU深层神经网络更新单元,用于根据各GPU上训练的副本深层神经网络的加权参数的变化量在CPU上更新副本深层神经网络的加权参数;
GPU深层神经网络更新单元,用于根据更新后CPU上深层神经网络的加权参数,更新各GPU上的副本深层神经网络的加权参数。
12.根据权利要求11所述的运算主机,其特征在于,所述深层神经网络训练子模块具体用于:
在GPU上采用随机梯度下降法、牛顿法或共轭梯度法计算所述副本深层神经网络的加权参数。
13.一种基于深层神经网络的声学模型训练***,其特征在于,包括一个根据权利要求7或8所述的基于深层神经网络的声学模型训练的主控主机,以及至少一个根据权利要求9至12任一所述的基于深层神经网络的声学模型训练的运算主机。
CN201310704701.9A 2013-12-19 2013-12-19 基于深层神经网络的声学模型训练方法、主机和*** Active CN103680496B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310704701.9A CN103680496B (zh) 2013-12-19 2013-12-19 基于深层神经网络的声学模型训练方法、主机和***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310704701.9A CN103680496B (zh) 2013-12-19 2013-12-19 基于深层神经网络的声学模型训练方法、主机和***

Publications (2)

Publication Number Publication Date
CN103680496A CN103680496A (zh) 2014-03-26
CN103680496B true CN103680496B (zh) 2016-08-10

Family

ID=50317850

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310704701.9A Active CN103680496B (zh) 2013-12-19 2013-12-19 基于深层神经网络的声学模型训练方法、主机和***

Country Status (1)

Country Link
CN (1) CN103680496B (zh)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10579922B2 (en) 2014-04-08 2020-03-03 Microsoft Technology Licensing, Llc Deep learning using alternating direction method of multipliers
CN104538033A (zh) * 2014-12-29 2015-04-22 江苏科技大学 基于嵌入式gpu***的并行化语音识别***及方法
US10445641B2 (en) * 2015-02-06 2019-10-15 Deepmind Technologies Limited Distributed training of reinforcement learning systems
CN104700828B (zh) * 2015-03-19 2018-01-12 清华大学 基于选择性注意原理的深度长短期记忆循环神经网络声学模型的构建方法
US10606651B2 (en) 2015-04-17 2020-03-31 Microsoft Technology Licensing, Llc Free form expression accelerator with thread length-based thread assignment to clustered soft processor cores that share a functional circuit
CN106297774B (zh) * 2015-05-29 2019-07-09 中国科学院声学研究所 一种神经网络声学模型的分布式并行训练方法及***
CN105005911B (zh) * 2015-06-26 2017-09-19 深圳市腾讯计算机***有限公司 深度神经网络的运算***及运算方法
US10452995B2 (en) 2015-06-29 2019-10-22 Microsoft Technology Licensing, Llc Machine learning classification on hardware accelerators with stacked memory
US10540588B2 (en) 2015-06-29 2020-01-21 Microsoft Technology Licensing, Llc Deep neural network processing on hardware accelerators with stacked memory
US10235994B2 (en) 2016-03-04 2019-03-19 Microsoft Technology Licensing, Llc Modular deep learning model
CN107292385A (zh) * 2016-03-31 2017-10-24 阿里巴巴集团控股有限公司 一种类Alexnet网络的模型训练方法和装置
CN107315571B (zh) 2016-04-27 2020-07-31 中科寒武纪科技股份有限公司 一种用于执行全连接层神经网络正向运算的装置和方法
CN105760324B (zh) * 2016-05-11 2019-11-15 北京比特大陆科技有限公司 数据处理装置和服务器
CN105956659B (zh) * 2016-05-11 2019-11-22 北京比特大陆科技有限公司 数据处理装置和***、服务器
CN108073986B (zh) * 2016-11-16 2020-05-12 北京搜狗科技发展有限公司 一种神经网络模型训练方法、装置及电子设备
CN108615525B (zh) * 2016-12-09 2020-10-09 ***通信有限公司研究院 一种语音识别方法及装置
CN109726797B (zh) * 2018-12-21 2019-11-19 北京中科寒武纪科技有限公司 数据处理方法、装置、计算机***及存储介质
CN110084380A (zh) * 2019-05-10 2019-08-02 深圳市网心科技有限公司 一种迭代训练方法、设备、***及介质
US11227579B2 (en) * 2019-08-08 2022-01-18 International Business Machines Corporation Data augmentation by frame insertion for speech data
CN112616230A (zh) * 2020-12-21 2021-04-06 江苏恒通照明集团有限公司 一种智慧路灯远程运维控制***
CN113159289B (zh) * 2021-04-26 2023-08-25 平安科技(深圳)有限公司 基于神经网络的联邦模型的训练方法、装置及计算机设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5579436A (en) * 1992-03-02 1996-11-26 Lucent Technologies Inc. Recognition unit model training based on competing word and word string models
CN102034472A (zh) * 2009-09-28 2011-04-27 戴红霞 一种基于嵌入时延神经网络的高斯混合模型的说话人识别方法
CN102693724A (zh) * 2011-03-22 2012-09-26 张燕 一种基于神经网络的高斯混合模型的噪声分类方法
CN103117060A (zh) * 2013-01-18 2013-05-22 中国科学院声学研究所 用于语音识别的声学模型的建模方法、建模***

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5579436A (en) * 1992-03-02 1996-11-26 Lucent Technologies Inc. Recognition unit model training based on competing word and word string models
CN102034472A (zh) * 2009-09-28 2011-04-27 戴红霞 一种基于嵌入时延神经网络的高斯混合模型的说话人识别方法
CN102693724A (zh) * 2011-03-22 2012-09-26 张燕 一种基于神经网络的高斯混合模型的噪声分类方法
CN103117060A (zh) * 2013-01-18 2013-05-22 中国科学院声学研究所 用于语音识别的声学模型的建模方法、建模***

Also Published As

Publication number Publication date
CN103680496A (zh) 2014-03-26

Similar Documents

Publication Publication Date Title
CN103680496B (zh) 基于深层神经网络的声学模型训练方法、主机和***
CN103935850B (zh) 电梯群控分区方法、电梯群控装置及***
WO2019104713A1 (zh) 一种机器学习方法、主节点、工作节点及***
CN101527086A (zh) 航班时隙分配的实现方法
CN105083336A (zh) 用于在大规模铁路网中生成车辆运行规划的***和方法
CN102404140B (zh) 一种分布式服务器的控制方法、装置和***
CN103731372A (zh) 一种混合云环境下服务提供者的资源供应方法
CN109532022A (zh) 基于互联网的3d打印***和方法
CN103955984A (zh) 实现互联网投票的方法、服务器、投票处理节点及***
CN102542106B (zh) 基于可变区域划分的分布式交通仿真***及仿真方法
CN103064745A (zh) 一种任务分配处理的方法及***
CN110362105A (zh) 基于多uav的传感器网络无线充电方法
CN104599085A (zh) 一种众包模式下的用户激励方法和众包***
CN110456633A (zh) 机载多平台分布式任务分配方法
CN105681096A (zh) 一种用于云平台利润最大化的服务器配置方法和装置
CN109550252A (zh) 一种游戏ai训练方法、装置及***
CN105975276B (zh) 分布式构建***及方法
CN111796932A (zh) 一种gpu资源调度方法
CN103959185B (zh) 数据收集***、以及数据收集方法
CN105138391B (zh) 面向广域分布云***公平的多任务虚拟机分配方法
CN116684418A (zh) 基于算力服务网关的算力编排调度方法、算力网络及装置
CN106325997B (zh) 一种虚拟资源分配方法及装置
CN106506594B (zh) 一种并行计算资源分配方法及装置
CN111627255B (zh) 信息处理方法、装置和***
CN107563578A (zh) 基于云计算的电动车充电信息查询***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant