基于人工智能的对话生成方法、装置、设备及存储介质
技术领域
本发明涉及智能机器人领域,特别涉及一种基于人工智能的对话生成方法、装置、设备及存储介质。
背景技术
聊天机器人,也称为对话***。目前,聊天机器人目前主要有两种实现方式:一种是检索式,另一种为生成式。检索式聊天机器人指的是通过检索与匹配的方式,从已有的大量候选答案中找出最合适的答案作为输出给用户的响应;生成式聊天机器人则是通过大量对话数据来训练模型,使用时通过结合对话历史和用户输入,逐字或逐词地生成响应的句子。
然而,检索式聊天机器人返回的响应往往会比较单一,无法输出答案库之外的答案,也难以结合上下文信息。生成式聊天机器人则产生的响应难以控制,也更容易出现语法错误,甚至出现一些不合适的表达。
综上所述,目前聊天机器的两种实现方式的输出都不够理想,精度较低。
发明内容
本发明实施方式的目的在于提供一种基于人工智能的对话生成方法、装置、设备及存储介质,使得聊天机器人的输出精度提高。
为解决上述技术问题,本发明的实施方式提供了一种基于人工智能的对话生成方法,包含以下步骤:获取待回复语句,将待回复语句输入检索式模型,其中,检索式模型用于从预设的对话语料库中筛选出回应待回复语句的K个候选回复,K为正整数;获取检索式模型输出的K个候选回复,并将待回复语句和K个候选回复输入生成式模型,利用生成式模型依据待回复语句、K个候选回复及词典中各词的逆文档频率筛选出预测词,并输出利用预测词组成的预测回复;根据预测回复获取回复语句。
本发明的实施方式还提供了一种基于人工智能的对话生成装置,包含:候选回复检索模块,用于获取待回复语句,将待回复语句输入检索式模型,其中,检索式模型用于从预设的对话语料库中筛选出回应待回复语句的K个候选回复,K为正整数;预测回复获取模块,用于获取检索式模型输出的K个候选回复,并将待回复语句和K个候选回复输入生成式模型,其中,生成式模型根据待回复语句、K个候选回复及词典中各词的逆文档频率筛选出预测词,并输出利用预测词组成的预测回复;回复语句获取模块,用于根据预测回复获取回复语句。
本发明的实施方式还提供了一种网络设备,包括:至少一个处理器;以及,与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行上述的基于人工智能的对话生成方法。
本发明的实施方式还提供了一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时实现上述的基于人工智能的对话生成方法。
本发明实施方式相对于现有技术而言,通过将待回复语句输入检索式模型,可以根据检索式模型得到K个候选回复;将待回复语句和K个候选回复输入生成式模型,可以使待回复语句和检索得到的K个候选回复的信息都可以被生成式模型利用,从而使生成式模型的输出更加规范;进一步地,生成式模型在筛选预测词时结合词典中各词的逆文档频率,可以降低高频词作为回复的概率,减少万能答案的产生,从而使聊天机器人的输出精度提高。
另外,在将待回复语句和K个候选回复输入生成式模型之后,还包括:对待回复语句和K个候选回复进行编码,得到待回复向量和K个候选回复向量。根据待回复向量和K个候选回复向量获取上下文向量;根据上下文向量和逆文档频率计算词典中每一词的综合得分,并获取综合得分最高的词作为预测词;获取根据预测词组成的预测回复。通过对待回复语句和K个候选回复进行编码成向量,根据编码后结果获取上下文向量,将上下文向量作为生成式模型的解码器的输入,可以优化解码器的输入,使生成型模型充分学习检索式模型检索的候选回复的信息,及待回复语句和K个候选回复的表达方式,从而使生成式模型的输出更加规范,精度更高。
另外,对待回复语句和K个候选回复进行编码,包括:采用同一编码器对待回复语句和K个候选回复进行编码。通过将待回复语句和K个候选回复输入同一个生成式模型的编码器,可以使编码器充分学习待回复语句和K个候选回复的表达方式,从而优化生成式模型输出的精度,使编码器模型的模型泛化能力更强。
另外,根据待回复向量和K个候选回复向量获取上下文向量,包括:将待回复向量和K个候选回复向量映射至不同的向量空间后拼接,根据拼接的结果得到上下文向量。通过将待回复向量和K个候选回复向量映射至不同向量空间,可以使生成式模型区分待回复语句和K个候选回复所传达的信息;根据拼接的结果得到上下文向量,使生成式模型利用上下文向量的信息及表达方式生成对话的回复语句,提高生成式模型的输出精度。
另外,生成式模型包括第一参数矩阵和第二参数矩阵;将待回复向量和K个候选回复向量映射至不同的向量空间后拼接,根据拼接的结果得到上下文向量,包括:将待回复向量与第一参数矩阵相乘,得到变换后的待回复向量;将K个候选回复向量与第二参数矩阵相乘,得到变换后K个候选回复向量;将变换后的待回复向量与变换后的K个候选回复拼接,得到上下文向量。通过将待回复向量和K个候选回复向量分别与第一参数矩阵和第二参数矩阵相乘,可以降低K个候选回复中无意义答案的权重,提高待回复语句和K个候选回复中有意义答案的权重,优化生成式模型中解码器的输入,从而优化生成式模型的输出。
另外,根据上下文向量和逆文档频率计算词典中每一词的综合得分,包括:根据以下第一计算公式计算每一词的综合得分:
P(yt|yt-1,q,r)=α*softmax_score(w)+β*idf(w);
其中,P(yt|yt-1,q,r)为每一词的综合得分,yt是t时刻的预测词,q为待回复语句,r为候选回复,α和β为预设生成式模型的参数,idf(w)为每一词的逆文档频率,softmax_score(w)为每一词的归一化指数函数值,用以下第二计算公式计算:
其中,为t时刻生成式模型的隐藏层的输出,Cinput为上下文向量。
另外,根据预测回复获取回复语句,包括:将预测回复和K个候选回复输入预设分类模型中,获取预设分类模型输出的结果作为回复语句。
附图说明
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定。
图1是本发明第一实施方式中基于人工智能的对话生成方法的流程示意图;
图2是本发明第一实施方式中基于人工智能的对话生成方法的另一流程示意图;
图3是本发明第一实施方式中基于人工智能的对话生成方法的具体原理示例图;
图4是本发明第二实施方式中基于人工智能的对话生成装置的模块结构图;
图5是本发明第三实施方式中网络设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明的各实施方式进行详细的阐述。然而,本领域的普通技术人员可以理解,在本发明各实施方式中,为了使读者更好地理解本申请而提出了许多技术细节。但是,即使没有这些技术细节和基于以下各实施方式的种种变化和修改,也可以实现本申请所要求保护的技术方案。
本发明的第一实施方式涉及一种基于人工智能的对话生成方法。通过获取待回复语句,将待回复语句输入检索式模型,其中,检索式模型用于从预设的对话语料库中筛选出回应待回复语句的K个候选回复,K为正整数;获取检索式模型输出的K个候选回复,并将待回复语句和K个候选回复输入生成式模型,利用生成式模型依据待回复语句、K个候选回复及词典中各词的逆文档频率筛选出预测词,并输出利用预测词组成的预测回复;根据预测回复获取回复语句。由于检索式模型得到的候选回复被输入至生成式模型,因此通过检索得到的候选回复的信息可以被生成式模型利用,实现了检索式模型与生成式模型的结合,优化了生成式模型的输出;并且,由于生成式模型是根据词的逆文档频率筛选预测词,可以降低高频词作为回复的概率,因此可以减少万能答案的产生,从而提高了聊天机器人的输出精度。
应当说明的是,本实施方式具体的执行主体可以为服务端,也可以为具体产品中的芯片,例如是聊天机器人中的芯片。以下以服务端为例进行说明。
本实施方式提供的基于人工智能的对话生成方法的流程示意图如图1所示,具体包括以下步骤:
S101:获取待回复语句,将待回复语句输入检索式模型,其中,检索式模型用于从预设的对话语料库中筛选出回应待回复语句的K个候选回复,K为正整数。
S102:获取检索式模型输出的K个候选回复,并将待回复语句和K个候选回复输入生成式模型,其中,生成式模型根据待回复语句、K个候选回复及词典中各词的逆文档频率筛选出预测词,并输出利用预测词组成的预测回复。
S103:根据预测回复获取回复语句。
其中,预设的对话语料库可以预先存储于数据库中,可由多个对话或者问答组构成。检索式模型可通过提取问题与回复的特征,在得到这些特征后通过机器学习算法进行训练后得到。生成式模型可通过预设的对话语料库的对话或者问答组对神经网络模型进行训练后得到。本实施方式中,对检索式模型用到的机器学习算法及生成式模型用到的训练神经网络模型均不做具体限制。
其中,待回复语句是指与生成的回复相对应的语句,可以包括问句和非问句,即待回复语句不一定为问句的形式,可以为任意一个语句。可选地,待回复语句可以由用户在客户端输入,再由客户端发送至服务端,服务端即可获取到待回复语句。待回复语句的形式可以为文本形式或语音形式,可选地,当待回复语句为语音形式时,客户端或服务端将语音转化为文本,以便输入检索式模式以及后面的计算。候选回复是指检索式筛选出回应待回复语句的回复语句,数量为K个,K为正整数,K的个数可以根据实际情况进行设置,这里不做具体限制。预测回复是指生成式模型生成的预测词组成的回复语句,可以理解,预测回复为一个。
其中,词典可以由预设的对话语料库生成,即词典可以由预设的对话语料库中所有包括的不重复的词组成。逆文档频率(inverse document frequency,简称IDF)又称反文档频率,是文档频率的倒数。其一般的计算公式为:
在本实施方式中,由于预设的对话语料库均为句子,因此,本实施方式中词典中各词的逆文档频率的计算公式为:
可以理解的是,生成式模型中的神经网络模型一般是通过计算词的归一化指数函数值(softmax值)来筛选出预测词的,即将softmax值最大的词作为预测词。在本实施方式中,可选地,可以分别赋予softmax值和词的IDF值不同的权重系数后进行计算,将计算结果最大的值对应的词作为预测词。由于在生成式模型结合各词的逆文档频率筛选出预测词,因此可以降低高频词作为回复的概率,从而减少像“我不知道”、“哈哈”等这些万能答案的产生,从而使聊天机器人输出的回复语句更加合理。
具体地,服务端将待回复语句输入训练好的检索式模型中,检索式模型从预设的对话语料库中筛选出回应待回复语句的K个候选回复;服务端获取检索式模型输出的K个候选回复,将K个候选回复与待回复语句输入训练好的生成式模型中,利用生成式模型依据待回复语句、K个候选回复及词典中各词的逆文档频率逐个筛选出预测词,再将这些预测词组成预测回复。可以理解,由于待回复语句及检索式模型检索出来的K个候选回复的信息均可被生成式模型利用,从而提高生成式模型输出的预测回复的规范性。可选地,可以将待回复语句和K个候选回复组成一个矩阵作为生成式模型中神经网络模型的输入。可选地,生成式模型可包括编码器(encoder model)和解码器(decoder model),先通过编码器将待回复语句和K个候选回复编码为向量形式,再组成矩阵输入至解码器中。在生成式模型生成预测回复后,服务端获取生成式模型输出的预测回复,再根据预测回复获取回复语句。可选地,服务端获取预测回复作为回复语句,输出到客户端。可选地,可以将回复语句从文本转化为语音,再以语音的形式将回复语句输出至客户端。
与现有技术相比,本实施方式通过将获取的待回复语句输入检索式模型,可以根据检索式模型得到K个候选回复;将待回复语句和K个候选回复输入生成式模型,可以使待回复语句和检索得到的K个候选回复的信息都可以被生成式模型利用,从而使生成式模型的输出更加规范;进一步地,生成式模型在筛选预测词时结合词典中各词的逆文档频率,可以降低高频词作为回复的概率,减少万能答案的产生,从而使聊天机器人的输出精度提高。
在一个具体的例子中,如图2所示,其为本实施方式提供的基于人工智能的对话生成方法的另一流程示意图,具体包括以下步骤:
S101:获取待回复语句,将待回复语句输入检索式模型,其中,检索式模型用于从预设的对话语料库中筛选出回应待回复语句的K个候选回复,K为正整数。
S1021:获取检索式模型输出的K个候选回复,并将待回复语句和K个候选回复输入生成式模型。
S1022:对待回复语句和K个候选回复进行编码,得到待回复向量和K个候选回复向量。
S1023:根据待回复向量和K个候选回复向量获取上下文向量。
S1024:根据上下文向量和逆文档频率计算词典中每一词的综合得分,并获取综合得分最高的词作为预测词。
S1025:获取根据预测词组成的预测回复。
S103:根据预测回复获取回复语句。
其中,S101、S103和S1021与上述相同,这里不再赘述。
在S1022中,可选地,生成式模型包括编码器,服务端通过编码器对待回复语句和K个候选回复进行编码,将待回复语句编码后得到待回复向量,将K个候选回复编码后得到K个候选回复向量。其中,编码器的模型可以采用LSTM、GRU或Transformer等模型,这里不做具体限制。
可以理解的是,生成式模型可以通过不同的编码器对待回复语句和K个候选回复进行编码。可选地,对待回复语句和K个候选回复进行编码是指使用同一个编码器对待回复语句和K个候选回复进行编码。
通过将待回复语句和K个候选回复输入同一个生成式模型的编码器,可以使编码器充分学习待回复语句和K个候选回复的表达方式,从而优化生成式模型输出的精度。可以理解,编码器在训练时可采用同样的方式进行训练。在编码器使用的过程中,随着使用次数的增多,编码器中的模型也在不断学习,可以使编码器模型的模型泛化能力更强。
在S1023中,根据待回复向量和K个候选回复向量获取上下文向量,具体可以是:将待回复向量和K个候选回复向量映射至不同的向量空间后拼接,根据拼接的结果得到上下文向量。
具体地,将待回复向量和K个候选回复向量映射至不同的向量空间,可以将待回复向量和K个候选回复分别乘以不同的参数矩阵来实现。可选地,将映射至不同的向量空间后的待回复向量和K个候选回复拼接,可以是将映射后的待回复向量分别与每一个映射后的候选回复拼接,再根据K个拼接的结果形成一个矩阵,以该矩阵作为上下文向量;也可以是将映射后的待回复向量直接与K个映射后的候选回复拼接形成一个向量,以该向量作为上下文向量。
通过将待回复向量和K个候选回复向量映射至不同向量空间,可以使生成式模型区分待回复语句和K个候选回复所传达的信息;根据拼接的结果得到上下文向量,使生成式模型利用上下文向量的信息及表达方式生成对话回复,提高生成式模型的输出精度。
可选地,生成式模型包括第一参数矩阵和第二参数矩阵。其中,第一参数矩阵和第二参数矩阵可通过预设的对话语料库中已有的问答组进行训练后得到。将待回复向量和K个候选回复向量映射至不同的向量空间后拼接,根据拼接的结果得到上下文向量,具体可以为:将待回复向量与第一参数矩阵相乘,得到变换后的待回复向量;将K个候选回复向量与第二参数矩阵相乘,得到变换后的K个候选回复向量;再将变换后的待回复向量与变换后的K个候选回复拼接,得到上下文向量。
其中,将变换后的待回复向量与变换后的K个候选回复拼接,是指将变换后的待回复向量与每一变换后的K个候选回复拼接后,根据K个拼接结果形成矩阵,以该矩阵作为上下文向量。可选地,生成式模型还包括解码器,上下文向量输入至解码器中,解码器根据上下文向量和采用的神经网络模型得到生成式模型的输出。其中解码器可以是LSTM、GRU、Transformer等模型。
通过将待回复向量和K个候选回复向量分别与第一参数矩阵和第二参数矩阵相乘,可以降低K个候选回复中无意义答案的权重,提高待回复语句和K个候选回复中有意义答案的权重,优化生成式模型中解码器的输入,从而优化生成式模型的输出。
在S1024中,服务端根据上下文向量计算softmax值,分别赋予上下文向量对应的softmax值和词典中每一词的逆文档频率不同的权重系数;再将该softmax值和逆文档频率分别乘以各自的权重系数,得到每一词的综合得分;选取综合得分最高的词作为预测词。
可选地,可以用以下第一计算公式计算每一词的综合得分:
P(yt|yt-1,q,r)=α*softmax_score(w)+β*idf(w);
其中,P(ytYyt-1,q,r)为每一词的综合得分,yt是t时刻的预测词,q为待回复语句,r为候选回复,α和β为预设生成式模型的参数,即上述的权重系数,idf(w)为每一词的逆文档频率,softmax_score(w)为每一词的归一化指数函数值,用以下第二计算公式计算:
其中,为t时刻生成式模型的隐藏层的输出,Cinput为上下文向量。
可以理解,生成式模型是逐词生成的,服务端根据所有预测词可以得到预测回复,再根据预测回复获得回复语句。可选地,服务端可将预测回复作为回复语句。
通过对待回复语句和K个候选回复进行编码成向量,根据编码后结果获取上下文向量,将上下文向量作为生成式模型的解码器的输入,可以优化解码器的输入,使生成型模型充分学习检索式模型检索的候选回复的信息,及待回复语句和K个候选回复的表达方式,从而使生成式模型的输出更加规范,精度更高。
在一个具体的例子中,在S103中,根据预测回复获取对话语句可以包括:将预测回复和K个候选回复输入预设分类模型中,获取预设分类模型输出的结果作为回复语句。
其中,预设分类模型可以为决策树、支持向量机或随机森林等算法模型。优选地,预设分类模型为xgboost模型。
具体地,服务端将生成式模型得到的预测回复和K个候选回复组成一个更大的候选答案集,将这些答案输入至预设分类模型中,将预设分类模型得到的结果作为最终结果,即回复语句。
通过预设分类模型将预测回复和K个候选回复作进一步筛选,可以使回复语句的精度更高,提高了聊天机器人的输出精度。
请参考图3,其为本实施方式提供的基于人工智能的对话生成方法的具体原理示例图。图中,Retrieval model为检索式模型,Encoder model为生成式模型中编码器模型,Decoder model为生成式模型中的解码器模型,Word idf是指词的逆文档频率。下面以一具体的例子进行说明:
采用问题向量余弦值作为检索式模型,双向GRU作为生成模型编码器和解码器的模型来作为示例进行说明,具体流程如下:
(1)将用户输入的待回复语句记为q,编码为向量将预设的对话语料中的所有问答对中的问题记为Qi(i=1,2,…,n),n表示问答对的数目,编码为向量如下:
这里的sentence_encoding模型可以采用词向量加和模型,即:
其中,s表示需要编码为向量的句子,如(1)中的待回复语句和所有问题,w表示s中的单词,word_embedding可以采用word2vec等预训练模型。
(2)分别求和的余弦值,选择值最大的前K个问题对应的答案作为候选回复,记为{r1,r2,…,rk};
(3)统计预设的对话语料库中的词语生成词典,并统计词典中每个词的idf值;
(4)将q和{r1,r2,…,rk}分别送入同一个双向GRU模型,得到对应的句子向量hq和
其中,表示前向GRU模型对q的编码结果,表示后向GRU模型对q的编码结果。
(5)用Wq(第一参数矩阵)和Wr(第二参数矩阵)对(4)中所得结果进行空间转换,得到最终的q向量和r向量,并将其拼接,公式如下:
Cinput=[vq,v1,v2,...,vk];
Cinput表示由用户查询q和检索式模型结果r共同得到的上下文向量,作为解码器的输入之一。
(6)解码器依据(5)提供的上下文向量生成响应。计算方式如下:
P(yt|yt-1,q,r)=α*softmax_score(w)+β*idf(w);
特别地,
其中yinit,为随机初始化向量,α和β为模型参数,表示softmax和idf值的权重,α和β需要在模型训练过程中学习。
具体地,依据(5)计算的上下文向量,以及模型预测出的上一个单词yt-1,以及GRU的上一个时间戳的隐藏层输出计算当前时间戳的隐藏层结果并计算词典中每个词的sotftmax值,得到每个词的softmax_score;然后与(3)中的idf值一起计算出一个新的得分,所得结果即为每个词的最终分数,选择分数最高的作为当前预测词yt。此预测词将和其前面的所有预测结果以及(5)中的上下文向量一起作为下一次预测的输入,依次生成一个完整的句子,作为生成模型的一个输出。
(7)将(2)中检索式模型的检索结果和(6)中生成式模型的输出一起组合为一个更大的候选答案集,然后采用xgboost模型从中筛选出与待回复语句匹配度最高的答案,此答案作为回复语句返回给用户。
上面各种方法的步骤划分,只是为了描述清楚,实现时可以合并为一个步骤或者对某些步骤进行拆分,分解为多个步骤,只要包含相同的逻辑关系,都在本专利的保护范围内;对算法中或者流程中添加无关紧要的修改或者引入无关紧要的设计,但不改变其算法和流程的核心设计都在该专利的保护范围内。
本发明第二实施方式涉及一种基于人工智能的对话生成装置,如图4所示,包含:候选回复检索模块301、预测回复获取模块302和回复语句获取模块303。具体地:
候选回复检索模块301,用于获取待回复语句,将待回复语句输入检索式模型,其中,检索式模型用于从预设的对话语料库中筛选出回应待回复语句的K个候选回复,K为正整数;
预测回复获取模块302,用于获取检索式模型输出的K个候选回复,并将待回复语句和K个候选回复输入生成式模型,其中,生成式模型根据待回复语句、K个候选回复及词典中各词的逆文档频率筛选出预测词,并输出利用预测词组成的预测回复;
回复语句获取模块303,用于根据预测回复获取回复语句。
进一步地,预测回复获取模块302还用于:
对待回复语句和K个候选回复进行编码,得到待回复向量和K个候选回复向量。
根据待回复向量和K个候选回复向量获取上下文向量;
根据上下文向量和逆文档频率计算词典中每一词的综合得分,并获取综合得分最高的词作为预测词;
获取根据预测词组成的预测回复。
进一步地,对待回复语句和K个候选回复进行编码,包括:
采用同一编码器对待回复语句和K个候选回复进行编码。
进一步地,根据待回复向量和K个候选回复向量获取上下文向量,包括:
将待回复向量和K个候选回复向量映射至不同的向量空间后拼接,根据拼接的结果得到上下文向量。
进一步地,生成式模型包括第一参数矩阵和第二参数矩阵;
将待回复向量和K个候选回复向量映射至不同的向量空间后拼接,根据拼接的结果得到上下文向量,包括:
将待回复向量与第一参数矩阵相乘,得到变换后的待回复向量;
将K个候选回复向量与第二参数矩阵相乘,得到变换后K个候选回复向量;
将变换后的待回复向量与变换后的K个候选回复拼接,得到上下文向量。
进一步地,根据上下文向量和逆文档频率计算词典中每一词的综合得分,包括:
根据以下第一计算公式计算每一词的综合得分:
P(yt|yt-1,q,r)=α*softmax_score(w)+β*idf(w);
其中,P(yt|yt-1,q,r)为每一词的综合得分,yt是t时刻的预测词,q为待回复语句,r为候选回复,α和β为预设生成式模型的参数,idf(w)为每一词的逆文档频率,softmax_score(w)为每一词的归一化指数函数值,用以下第二计算公式计算:
其中,为t时刻生成式模型的隐藏层的输出,Cinput为上下文向量。
进一步地,回复语句获取模块303还用于:将预测回复和K个候选回复输入预设分类模型中,获取预设分类模型输出的结果作为回复语句。
不难发现,本实施方式为与第一实施方式相对应的装置实施例,本实施方式可与第一实施方式互相配合实施。第一实施方式中提到的相关技术细节在本实施方式中依然有效,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在第一实施方式中。
值得一提的是,本实施方式中所涉及到的各模块均为逻辑模块,在实际应用中,一个逻辑单元可以是一个物理单元,也可以是一个物理单元的一部分,还可以以多个物理单元的组合实现。此外,为了突出本发明的创新部分,本实施方式中并没有将与解决本发明所提出的技术问题关系不太密切的单元引入,但这并不表明本实施方式中不存在其它的单元。
本发明第三实施方式涉及一种网络设备,如图5所示,包括至少一个处理器401;以及,与至少一个处理器401通信连接的存储器402;其中,存储器402存储有可被至少一个处理器401执行的指令,指令被至少一个处理器401执行,以使至少一个处理器401能够执行上述的基于人工智能的对话生成方法。
其中,存储器402和处理器401采用总线方式连接,总线可以包括任意数量的互联的总线和桥,总线将一个或多个处理器401和存储器402的各种电路连接在一起。总线还可以将诸如***设备、稳压器和功率管理电路等之类的各种其他电路连接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口在总线和收发机之间提供接口。收发机可以是一个元件,也可以是多个元件,比如多个接收器和发送器,提供用于在传输介质上与各种其他装置通信的单元。经处理器401处理的数据通过天线在无线介质上进行传输,进一步,天线还接收数据并将数据传送给处理器401。
处理器401负责管理总线和通常的处理,还可以提供各种功能,包括定时,***接口,电压调节、电源管理以及其他控制功能。而存储器402可以被用于存储处理器401在执行操作时所使用的数据。
本发明第四实施方式涉及一种计算机可读存储介质,存储有计算机程序。计算机程序被处理器执行时实现上述方法实施例。
即,本领域技术人员可以理解实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序存储在一个存储介质中,包括若干指令用以使得一个设备(可以是单片机,芯片等)或处理器(processor)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本领域的普通技术人员可以理解,上述各实施方式是实现本发明的具体实施例,而在实际应用中,可以在形式上和细节上对其作各种改变,而不偏离本发明的精神和范围。