CN116628161A - 答案生成方法、装置、设备及存储介质 - Google Patents
答案生成方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN116628161A CN116628161A CN202310593894.9A CN202310593894A CN116628161A CN 116628161 A CN116628161 A CN 116628161A CN 202310593894 A CN202310593894 A CN 202310593894A CN 116628161 A CN116628161 A CN 116628161A
- Authority
- CN
- China
- Prior art keywords
- text
- answer
- vector
- question
- decoding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 239000013598 vector Substances 0.000 claims abstract description 144
- 238000012545 processing Methods 0.000 claims abstract description 52
- 238000010606 normalization Methods 0.000 claims abstract description 7
- 230000008447 perception Effects 0.000 claims description 38
- 239000011159 matrix material Substances 0.000 claims description 26
- 230000006870 function Effects 0.000 claims description 14
- 230000003213 activating effect Effects 0.000 claims description 9
- 230000000873 masking effect Effects 0.000 claims description 8
- 230000004913 activation Effects 0.000 claims description 7
- 238000004458 analytical method Methods 0.000 claims description 6
- 210000002569 neuron Anatomy 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 5
- 238000012216 screening Methods 0.000 claims description 4
- 238000004378 air conditioning Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 abstract description 12
- 238000013473 artificial intelligence Methods 0.000 abstract description 8
- 238000013528 artificial neural network Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 7
- 238000012549 training Methods 0.000 description 4
- 238000012512 characterization method Methods 0.000 description 3
- 235000019580 granularity Nutrition 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000002565 electrocardiography Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/335—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H80/00—ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Pathology (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Public Health (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Human Computer Interaction (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及人工智能及数字医疗领域,提供一种答案生成方法、装置、设备及存储介质。该方法根据待测问题、问题类型、证据文本及历史答案生成输入文本,对输入文本进行编码处理,得到文本编码,对文本编码进行感知处理,得到感知向量,并进行归一化处理,得到第一输出概率,基于文本编码,对感知向量及输入文本进行解码处理,得到解码信息,对解码信息进行预测,得到第二输出概率,根据第一输出概率及第二输出概率生成问题答案。上述方法利用神经网络能够准确的输出问题答案。此外,本发明还涉及区块链技术,所述问题答案可存储于区块链中。
Description
技术领域
本发明涉及人工智能及数字医疗技术领域,尤其涉及一种答案生成方法、装置、设备及存储介质。
背景技术
随着人工智能的发展,自动问答***也随之发展,目前的自动问答***可以应用于医疗领域。在现有的自动问答***中,通常直接根据问题从证据文本中检索出相应的答案,这种方式无法给出符合问题需要的答案格式,例如,对于一个计数问题,证据文本中可能只存在枚举的描述信息,因此,目前的自动问答***无法生成合理的答案信息。
因此,如何准确并合理的生成问题所对应的答案文本,成了亟需解决的技术问题。
发明内容
鉴于以上内容,有必要提供一种答案生成方法、装置、设备及存储介质,能够解决如何准确并合理的生成问题所对应的答案文本的技术问题。
一方面,本发明提出一种答案生成方法,所述答案生成方法包括:
根据获取到的待测问题、所述待测问题的问题类型、所述待测问题所对应的证据文本、与所述待测问题关联的历史问题所对应的历史答案生成输入文本;
获取预先训练完成的答案识别模型,所述答案识别模型包括多个编码器、感知网络层、多个解码器及预测输出层;
基于所述多个编码器对所述输入文本进行编码处理,得到文本编码;
基于所述感知网络层对所述文本编码进行感知处理,得到感知向量,并对所述感知向量进行归一化处理,得到所述输入文本中每个文本词汇的第一输出概率;
基于所述多个解码器及所述文本编码,对所述感知向量及所述输入文本进行解码处理,得到解码信息;
基于所述预测输出层对所述解码信息进行预测,得到所述多个解码器中每个模板词汇的第二输出概率;
根据所述第一输出概率及所述第二输出概率生成所述待测问题的问题答案。
根据本发明优选实施例,所述根据获取到的待测问题、所述待测问题的问题类型、所述待测问题所对应的证据文本、与所述待测问题关联的历史问题所对应的历史答案生成输入文本包括:
提取所述待测问题中的疑问词汇;
根据所述疑问词汇与预设词汇的匹配,识别出所述问题类型;
识别所述待测问题的生成时刻及问题场次;
根据所述生成时刻及所述问题场次获取请求问题,并获取所述请求问题的请求时刻;
根据所述请求时刻从所述请求问题中筛选出所述历史问题;
获取与所述历史问题所对应的回答文本作为所述历史答案;
拼接所述问题类型、所述待测问题、预设标识、所述证据文本及所述历史答案作为所述输入文本。
根据本发明优选实施例,所述基于所述多个编码器对所述输入文本进行编码处理,得到文本编码包括:
对所述输入文本中每个文本词汇进行表征,得到文本向量;
对于任一编码器,基于每组权值矩阵生成所述文本向量的关注向量;
拼接多个所述关注向量,得到拼接向量;
计算配置矩阵与所述拼接向量的乘积,得到注意力信息;
根据预设矩阵及预设偏置值,对所述注意力信息进行全连接运算,得到初始向量,所述初始向量的生成公式为:y=max(a,xW1+1)2+2,其中,y表示所述初始向量,a表示预设常数,x表示所述注意力信息,W1及W2表示所述预设矩阵,b1及b2表示所述预设偏置值;
将所述初始向量作为下一个编码器的文本向量进行编码处理,直至所述多个编码器均参与编码,得到所述文本编码。
根据本发明优选实施例,所述基于所述感知网络层对所述文本编码进行感知处理,得到感知向量包括:
对于所述感知网络层的每个隐藏层,基于该隐藏层中神经元的网络参数对所述文本编码进行全连接运算,得到该隐藏层的输出向量;
将所述输出向量作为下一个隐藏层的文本编码进行感知处理,直至所述感知网络层的每个隐藏层均参与处理,得到所述感知向量。
根据本发明优选实施例,所述基于所述多个解码器及所述文本编码,对所述感知向量及所述输入文本进行解码处理,得到解码信息包括:
对所述输入文本进行掩码处理,得到掩码向量;
根据所述感知向量及所述掩码向量生成目标向量;
对于任一解码器,基于所述任一解码器及所述文本编码对所述目标向量进行注意力分析,得到注意力信息;
基于所述任一解码器的解码权值矩阵及解码偏置对所述注意力信息进行全连接处理,得到初始解码,并将所述初始解码作为下一个解码器的目标向量进行解码处理,直至所述多个解码器均参与解码,得到所述解码信息。
根据本发明优选实施例,所述基于所述预测输出层对所述解码信息进行预测,得到所述多个解码器中每个模板词汇的第二输出概率包括:
基于所述预测输出层的激活函数对所述解码信息进行激活处理,得到激活信息;
对所述激活信息进行归一化处理,得到所述第二输出概率。
根据本发明优选实施例,所述根据所述第一输出概率及所述第二输出概率生成所述待测问题的问题***括:
对所述第一输出概率及所述第二输出概率进行加权和运算,得到所述文本词汇及所述模板词汇的目标概率;
将所述目标概率大于预设概率阈值的词汇确定为目标词汇;
根据所述目标词汇生成所述问题答案。
另一方面,本发明还提出一种答案生成装置,所述答案生成装置包括:
生成单元,用于根据获取到的待测问题、所述待测问题的问题类型、所述待测问题所对应的证据文本、与所述待测问题关联的历史问题所对应的历史答案生成输入文本;
获取单元,用于获取预先训练完成的答案识别模型,所述答案识别模型包括多个编码器、感知网络层、多个解码器及预测输出层;
编码单元,用于基于所述多个编码器对所述输入文本进行编码处理,得到文本编码;
感知单元,用于基于所述感知网络层对所述文本编码进行感知处理,得到感知向量,并对所述感知向量进行归一化处理,得到所述输入文本中每个文本词汇的第一输出概率;
解码单元,用于基于所述多个解码器及所述文本编码,对所述感知向量及所述输入文本进行解码处理,得到解码信息;
预测单元,用于基于所述预测输出层对所述解码信息进行预测,得到所述多个解码器中每个模板词汇的第二输出概率;
所述生成单元,还用于根据所述第一输出概率及所述第二输出概率生成所述待测问题的问题答案。
另一方面,本发明还提出一种电子设备,所述电子设备包括:
存储器,存储计算机可读指令;及
处理器,执行所述存储器中存储的计算机可读指令以实现所述答案生成方法。
另一方面,本发明还提出一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机可读指令,所述计算机可读指令被电子设备中的处理器执行以实现所述答案生成方法。
由以上技术方案可以看出,本申请通过结合所述待测问题、所述问题类型、所述证据文本、所述历史答案生成输入文本,由于不同类型的问题所对应的回答格式有所不同,因此,通过在所述输入文本中加入所述问题类型,能够提高所述问题答案的生成准确性及生成合理性,通过在所述输入文本中加入所述历史答案,不仅能够使得后续生成的所述问题答案更加完整,还能够指导所述答案识别模型符合所述问题类型所对应的问题答案,通过在所述答案识别模型中设定所述多个编码器,使得所述文本编码能够从浅层到深层分别关注不同粒度的语义信息,进而通过所述第一输出概率及所述第二输出概率能够准确的生成所述问题答案,从而避免所述问题答案的生成错误或者生成冗余的信息。
附图说明
图1是本发明答案生成方法的较佳实施例的流程图。
图2是本发明答案生成方法中答案识别模型的网络结构图。
图3是本发明答案生成装置的较佳实施例的功能模块图。
图4是本发明实现答案生成方法的较佳实施例的电子设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
如图1所示,是本发明答案生成方法的较佳实施例的流程图。根据不同的需求,该流程图中步骤的顺序可以改变,某些步骤可以省略。
所述答案生成方法可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互***、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
所述答案生成方法应用于一个或者多个电子设备中,所述电子设备是一种能够按照事先设定或存储的计算机可读指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字信号处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述电子设备可以是任何一种可与用户进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、交互式网络电视(Internet Protocol Television,IPTV)、智能穿戴式设备等。
所述电子设备可以包括网络设备和/或用户设备。其中,所述网络设备包括,但不限于单个网络电子设备、多个网络电子设备组成的电子设备组或基于云计算(CloudComputing)的由大量主机或网络电子设备构成的云。
所述电子设备所在的网络包括,但不限于:互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
101,根据获取到的待测问题、所述待测问题的问题类型、所述待测问题所对应的证据文本、与所述待测问题关联的历史问题所对应的历史答案生成输入文本。
在本发明的至少一个实施例中,所述待测问题可以是英文形式的问题,也可以是中文形式的问题,本申请对此不作限制。所述待测问题可以是在自动问答***中任一轮次的用户问题。例如,所述待测问题可以是计数问题。所述待测问题可以是与医疗相关的问题。
所述问题类型是指所述待测问题所对应的类别,例如,所述问题类型可以为是否类型等。
所述证据文本是指所述待测问题所对应的答案的来源文本,例如,所述待测问题为计数问题,则所述证据文本可以包括具体的枚举值等。所述证据文本可以为为医疗文本,所述医疗文本可以是医疗电子记录(Electronic Healthcare Record),电子化的个人健康记录,包括病历、心电图、医学影像等一系列具备保存备查价值的电子化记录。
所述历史问题是指与所述待测问题处于同一问答场次的问题,所述历史问题的请求时刻小于所述待测问题的生成时刻。
所述历史答案是指与所述历史问题所对应的答案信息。
所述输入文本是指拼接所述待测问题、所述问题类型、所述证据文本及所述历史答案后所生成的文本。
在本发明的至少一个实施例中,所述电子设备根据获取到的待测问题、所述待测问题的问题类型、所述待测问题所对应的证据文本、与所述待测问题关联的历史问题所对应的历史答案生成输入文本包括:
提取所述待测问题中的疑问词汇;
根据所述疑问词汇与预设词汇的匹配,识别出所述问题类型;
识别所述待测问题的生成时刻及问题场次;
根据所述生成时刻及所述问题场次获取请求问题,并获取所述请求问题的请求时刻;
根据所述请求时刻从所述请求问题中筛选出所述历史问题;
获取与所述历史问题所对应的回答文本作为所述历史答案;
拼接所述问题类型、所述待测问题、预设标识、所述证据文本及所述历史答案作为所述输入文本。
其中,所述疑问词汇是指所述待测问题中表示疑问的词汇,例如,所述疑问词汇可以是what,how,is,are等。
所述预设词汇包括,但不限于:与多个与问题相关的类别所对应的词汇,例如,所述预设词汇可以是what,how,is,are等。
所述问题类型是指与所述疑问词汇匹配成功的预设词汇所对应的类别。
所述生成时刻是指生成所述待测问题的具体时刻点,所述问题场次可以是自动问答***中的具体问答场次,例如,所述问题场次可以为1001等。
所述请求问题的问答场次与所述问题场次相同,所述请求问题的请求时刻小于所述生成时刻。
所述历史问题是指所述请求时刻处于目标时段的请求问题,其中,所述目标时段可以根据所述生成时刻与预设时段的差值生成,例如,所述生成时刻为9:00,所述预设时段为[1min,5min],则所述目标时段为8:55-8:59。
所述预设标识可以是任意能够将所述待测问题及所述证据文本分隔开的标识,例如,所述预设标识可以是[SEP]等。
通过所述疑问词汇能够准确的识别出所述问题类型,通过结合所述生成时刻及所述问题场次,能够合理的筛选出所述历史问题,通过所述预设标识,能够将所述待测问题与所述证据文本分隔开,从而降低模型的识别难度,通过结合所述问题类型、所述待测问题、所述预设标识、所述证据文本及所述历史答案生成所述输入文本,不仅能够使得生成的问题答案符合所述我问题类型的答案格式,还能够使得生成的问题答案更加完整。
102,获取预先训练完成的答案识别模型,所述答案识别模型包括多个编码器、感知网络层、多个解码器及预测输出层。
在本发明的至少一个实施例中,所述答案识别模型用于识别出所述待测问题的问题答案。所述答案识别模型可以应用于智能问答***,所述智能问答***可以应用于智能诊疗、远程会诊。
所述多个编码器用于生成所述输入文本的文本编码。
所述感知网络层用于生成所述文本编码的感知向量。
所述多个解码器用于生成所述文本编码的解码信息,所述多个解码器的数量等于所述多个编码器的数量。
所述预测输出层用于生成所述解码信息在每个模板词汇上的概率。
在本发明的至少一个实施例中,在获取预先训练完成的答案识别模型之前,所述方法还包括:
构建答案识别网络;
获取训练样本;
基于预设交叉熵损失函数计算所述训练样本在所述答案识别网络上的损失值;
基于所述损失值调整所述答案识别网络的预设参数,直至所述损失值不再降低,得到所述答案识别模型。
如图2所示,是本发明答案生成方法中答案识别模型的网络结构图。在图2中,所述答案识别模型包括编码器1、编码器2、感知网络层、解码器1、解码器2及预测输出层。
103,基于所述多个编码器对所述输入文本进行编码处理,得到文本编码。
在本发明的至少一个实施例中,所述文本编码是指基于所述输入文本,所述多个编码器中拼接顺序最大的编码器所输出的向量信息。
在本发明的至少一个实施例中,所述电子设备基于所述多个编码器对所述输入文本进行编码处理,得到文本编码包括:
对所述输入文本中每个文本词汇进行表征,得到文本向量;
对于任一编码器,基于每组权值矩阵生成所述文本向量的关注向量;
拼接多个所述关注向量,得到拼接向量;
计算配置矩阵与所述拼接向量的乘积,得到注意力信息;
根据预设矩阵及预设偏置值,对所述注意力信息进行全连接运算,得到初始向量,所述初始向量的生成公式为:y=max(a,xW1+1)2+2,其中,y表示所述初始向量,a表示预设常数,x表示所述注意力信息,W1及W2表示所述预设矩阵,b1及b2表示所述预设偏置值;
将所述初始向量作为下一个编码器的文本向量进行编码处理,直至所述多个编码器均参与编码,得到所述文本编码。
其中,多个所述文本词汇可以基于预设词典对所述输入文本进行分词后所生成。
每组权值矩阵可以包括多个矩阵。所述关注向量是指基于所述多个矩阵对所述文本向量进行注意力分析所生成。
多组所述权值矩阵、所述配置矩阵、所述预设矩阵及所述预设偏置值可以从所述答案识别模型的模型参数中获取。
通过上述实施方式,在每个编码器中,通过多组所述权值矩阵对所述文本向量同时进行注意力分析,能给个提高所述注意力信息对所述输入文本的表征准确性,通过结合所述预设矩阵及所述预设偏置值对所述注意力信息进行分析,进一步提高所述初始向量的表征能力,从而提高所述文本编码的表征能力。
104,基于所述感知网络层对所述文本编码进行感知处理,得到感知向量,并对所述感知向量进行归一化处理,得到所述输入文本中每个文本词汇的第一输出概率。
在本发明的至少一个实施例中,所述感知向量中包括对所述输入文本中每个文本词汇的表征向量。
所述第一输出概率是指结合所述多个编码器及所述感知网络层对多个所述文本词汇所生成的概率。
在本发明的至少一个实施例中,所述电子设备基于所述感知网络层对所述文本编码进行感知处理,得到感知向量包括:
对于所述感知网络层的每个隐藏层,基于该隐藏层中神经元的网络参数对所述文本编码进行全连接运算,得到该隐藏层的输出向量;
将所述输出向量作为下一个隐藏层的文本编码进行感知处理,直至所述感知网络层的每个隐藏层均参与处理,得到所述感知向量。
其中,所述网络参数包括参数矩阵及参数偏置值。
通过所述感知网络层中所有隐藏层的神经元对所述文本编码的处理,能够提高所述感知向量的表征能力。
105,基于所述多个解码器及所述文本编码,对所述感知向量及所述输入文本进行解码处理,得到解码信息。
在本发明的至少一个实施例中,所述解码信息是指所述多个解码器中拼接顺序最大的解码器所输出的信息。
在本发明的至少一个实施例中,所述电子设备基于所述多个解码器及所述文本编码,对所述感知向量及所述输入文本进行解码处理,得到解码信息包括:
对所述输入文本进行掩码处理,得到掩码向量;
根据所述感知向量及所述掩码向量生成目标向量;
对于任一解码器,基于所述任一解码器及所述文本编码对所述目标向量进行注意力分析,得到注意力信息;
基于所述任一解码器的解码权值矩阵及解码偏置对所述注意力信息进行全连接处理,得到初始解码,并将所述初始解码作为下一个解码器的目标向量进行解码处理,直至所述多个解码器均参与解码,得到所述解码信息。
其中,所述目标向量是指根据所述感知向量中每个向量元素与所述掩码向量中每个向量元素的元素平均值所生成的向量。
所述初始解码的生成方式与所述初始向量的生成方式相似,本申请对此不再赘述。
通过对所述输入文本进行掩码处理,能够避免所述多个解码器依赖于未来的信息对所述文本编码的解码,通过结合所述感知向量及所述掩码向量,能够提高所述文本编码对所述目标向量的注意力分析的准确性,从而提高所述解码信息的生成准确性。
具体地,所述电子设备对所述输入文本进行掩码处理,得到掩码向量包括:
从所述文本向量中提取所述输入文本中每个文本词汇的词汇向量;
统计每个词汇向量中向量元素的元素数量;
基于取值最大的元素数量,对多个所述词汇向量进行补齐处理,得到补齐向量;
根据多个所述补齐向量生成向量矩阵;
识别出所述向量矩阵的矩阵对角,并根据所述矩阵对角识别出所述向量矩阵的下三角元素;
对所述下三角元素进行掩码处理,并将对所述下三角元素进行掩码处理后所得到的矩阵确定为所述掩码向量。
通过上述实施方式,不仅能够确保每个文本词汇的向量长度相同,还能够避免所述多个解码器依赖于未来的信息对所述文本编码的解码。
106,基于所述预测输出层对所述解码信息进行预测,得到所述多个解码器中每个模板词汇的第二输出概率。
在本发明的至少一个实施例中,多个所述模板词汇是指所述答案识别模型中预先配置好的词汇。
所述第二输出概率是指基于所述预测输出层及所述解码信息对每个模板词汇所生成的概率。
在本发明的至少一个实施例中,所述电子设备基于所述预测输出层对所述解码信息进行预测,得到所述多个解码器中每个模板词汇的第二输出概率包括:
基于所述预测输出层的激活函数对所述解码信息进行激活处理,得到激活信息;
对所述激活信息进行归一化处理,得到所述第二输出概率。
通过上述实施方式,能够准确的将所述解码信息映射至多个所述模板词汇中,提高了所述第二输出概率的准确性。
107,根据所述第一输出概率及所述第二输出概率生成所述待测问题的问题答案。
需要强调的是,为进一步保证上述问题答案的私密和安全性,上述问题答案还可以存储于一区块链的节点中。
在本发明的至少一个实施例中,所述问题答案是指与所述待测问题所对应的答案文本。当所述待测问题是用户在自动问答***中输入的问题时,所述问题答案可以是所述自动问答***所输出的答案。
在本发明的至少一个实施例中,所述电子设备根据所述第一输出概率及所述第二输出概率生成所述待测问题的问题***括:
对所述第一输出概率及所述第二输出概率进行加权和运算,得到所述文本词汇及所述模板词汇的目标概率;
将所述目标概率大于预设概率阈值的词汇确定为目标词汇;
根据所述目标词汇生成所述问题答案。
其中,所述预设概率阈值可以根据实际需求设定。
通过结合所述第一输出概率及所述第二输出概率,能够准确的生成所述目标概率,从而提高所述问题答***性。
由以上技术方案可以看出,本申请通过结合所述待测问题、所述问题类型、所述证据文本、所述历史答案生成输入文本,由于不同类型的问题所对应的回答格式有所不同,因此,通过在所述输入文本中加入所述问题类型,能够提高所述问题答案的生成准确性及生成合理性,通过在所述输入文本中加入所述历史答案,不仅能够使得后续生成的所述问题答案更加完整,还能够指导所述答案识别模型符合所述问题类型所对应的问题答案,通过在所述答案识别模型中设定所述多个编码器,使得所述文本编码能够从浅层到深层分别关注不同粒度的语义信息,进而通过所述第一输出概率及所述第二输出概率能够准确的生成所述问题答案,从而避免所述问题答案的生成错误或者生成冗余的信息。
如图3所示,是本发明答案生成装置的较佳实施例的功能模块图。所述答案生成装置11包括生成单元110、获取单元111、编码单元112、感知单元113、解码单元114、预测单元115、构建单元116、计算单元117及调整单元118。本发明所称的模块/单元是指一种能够被处理器13所获取,并且能够完成固定功能的一系列计算机可读指令段,其存储在存储器12中。在本实施例中,关于各模块/单元的功能将在后续的实施例中详述。
生成单元110,用于根据获取到的待测问题、所述待测问题的问题类型、所述待测问题所对应的证据文本、与所述待测问题关联的历史问题所对应的历史答案生成输入文本;
获取单元111,用于获取预先训练完成的答案识别模型,所述答案识别模型包括多个编码器、感知网络层、多个解码器及预测输出层;
编码单元112,用于基于所述多个编码器对所述输入文本进行编码处理,得到文本编码;
感知单元113,用于基于所述感知网络层对所述文本编码进行感知处理,得到感知向量,并对所述感知向量进行归一化处理,得到所述输入文本中每个文本词汇的第一输出概率;
解码单元114,用于基于所述多个解码器及所述文本编码,对所述感知向量及所述输入文本进行解码处理,得到解码信息;
预测单元115,用于基于所述预测输出层对所述解码信息进行预测,得到所述多个解码器中每个模板词汇的第二输出概率;
所述生成单元110,还用于根据所述第一输出概率及所述第二输出概率生成所述待测问题的问题答案。
在本发明的至少一个实施例中,所述生成单元110,还用于提取所述待测问题中的疑问词汇;
根据所述疑问词汇与预设词汇的匹配,识别出所述问题类型;
识别所述待测问题的生成时刻及问题场次;
根据所述生成时刻及所述问题场次获取请求问题,并获取所述请求问题的请求时刻;
根据所述请求时刻从所述请求问题中筛选出所述历史问题;
获取与所述历史问题所对应的回答文本作为所述历史答案;
拼接所述问题类型、所述待测问题、预设标识、所述证据文本及所述历史答案作为所述输入文本。
在本发明的至少一个实施例中,所述编码单元112,还用于对所述输入文本中每个文本词汇进行表征,得到文本向量;
对于任一编码器,基于每组权值矩阵生成所述文本向量的关注向量;
拼接多个所述关注向量,得到拼接向量;
计算配置矩阵与所述拼接向量的乘积,得到注意力信息;
根据预设矩阵及预设偏置值,对所述注意力信息进行全连接运算,得到初始向量,所述初始向量的生成公式为:y=max(a,xW1+1)2+2,其中,y表示所述初始向量,a表示预设常数,x表示所述注意力信息,W1及W2表示所述预设矩阵,b1及b2表示所述预设偏置值;
将所述初始向量作为下一个编码器的文本向量进行编码处理,直至所述多个编码器均参与编码,得到所述文本编码。
在本发明的至少一个实施例中,所述感知单元113,还用于对于所述感知网络层的每个隐藏层,基于该隐藏层中神经元的网络参数对所述文本编码进行全连接运算,得到该隐藏层的输出向量;
将所述输出向量作为下一个隐藏层的文本编码进行感知处理,直至所述感知网络层的每个隐藏层均参与处理,得到所述感知向量。
在本发明的至少一个实施例中,所述解码单元114,还用于对所述输入文本进行掩码处理,得到掩码向量;
根据所述感知向量及所述掩码向量生成目标向量;
对于任一解码器,基于所述任一解码器及所述文本编码对所述目标向量进行注意力分析,得到注意力信息;
基于所述任一解码器的解码权值矩阵及解码偏置对所述注意力信息进行全连接处理,得到初始解码,并将所述初始解码作为下一个解码器的目标向量进行解码处理,直至所述多个解码器均参与解码,得到所述解码信息。
在本发明的至少一个实施例中,所述预测单元115,还用于基于所述预测输出层的激活函数对所述解码信息进行激活处理,得到激活信息;
对所述激活信息进行归一化处理,得到所述第二输出概率。
在本发明的至少一个实施例中,所述生成单元110,还用于对所述第一输出概率及所述第二输出概率进行加权和运算,得到所述文本词汇及所述模板词汇的目标概率;
将所述目标概率大于预设概率阈值的词汇确定为目标词汇;
根据所述目标词汇生成所述问题答案。
在本发明的至少一个实施例中,在获取预先训练完成的答案识别模型之前,构建单元116,用于构建答案识别网络;
所述获取单元111,还用于获取训练样本;
计算单元117,用于基于预设交叉熵损失函数计算所述训练样本在所述答案识别网络上的损失值;
调整单元118,用于基于所述损失值调整所述答案识别网络的预设参数,直至所述损失值不再降低,得到所述答案识别模型。
由以上技术方案可以看出,本申请通过结合所述待测问题、所述问题类型、所述证据文本、所述历史答案生成输入文本,由于不同类型的问题所对应的回答格式有所不同,因此,通过在所述输入文本中加入所述问题类型,能够提高所述问题答案的生成准确性及生成合理性,通过在所述输入文本中加入所述历史答案,不仅能够使得后续生成的所述问题答案更加完整,还能够指导所述答案识别模型符合所述问题类型所对应的问题答案,通过在所述答案识别模型中设定所述多个编码器,使得所述文本编码能够从浅层到深层分别关注不同粒度的语义信息,进而通过所述第一输出概率及所述第二输出概率能够准确的生成所述问题答案,从而避免所述问题答案的生成错误或者生成冗余的信息。
如图4所示,是本发明实现答案生成方法的较佳实施例的电子设备的结构示意图。
在本发明的一个实施例中,所述电子设备1包括,但不限于,存储器12、处理器13,以及存储在所述存储器12中并可在所述处理器13上运行的计算机可读指令,例如答案生成程序。
本领域技术人员可以理解,所述示意图仅仅是电子设备1的示例,并不构成对电子设备1的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备1还可以包括输入输出设备、网络接入设备、总线等。
所述处理器13可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器13是所述电子设备1的运算核心和控制中心,利用各种接口和线路连接整个电子设备1的各个部分,及执行所述电子设备1的操作***以及安装的各类应用程序、程序代码等。
示例性的,所述计算机可读指令可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器12中,并由所述处理器13执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机可读指令段,该计算机可读指令段用于描述所述计算机可读指令在所述电子设备1中的执行过程。例如,所述计算机可读指令可以被分割成生成单元110、获取单元111、编码单元112、感知单元113、解码单元114、预测单元115、构建单元116、计算单元117及调整单元118。
所述存储器12可用于存储所述计算机可读指令和/或模块,所述处理器13通过运行或执行存储在所述存储器12内的计算机可读指令和/或模块,以及调用存储在存储器12内的数据,实现所述电子设备1的各种功能。所述存储器12可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据电子设备的使用所创建的数据等。存储器12可以包括非易失性和易失性存储器,例如:硬盘、内存、插接式硬盘,智能存储卡(SmartMedia Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他存储器件。
所述存储器12可以是电子设备1的外部存储器和/或内部存储器。进一步地,所述存储器12可以是具有实物形式的存储器,如内存条、TF卡(Trans-flash Card)等等。
所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机可读指令来指令相关的硬件来完成,所述的计算机可读指令可存储于一计算机可读存储介质中,该计算机可读指令在被处理器执行时,可实现上述各个方法实施例的步骤。
其中,所述计算机可读指令包括计算机可读指令代码,所述计算机可读指令代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机可读指令代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)。
本发明所指区块链是分布式答案生成、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
结合图1,所述电子设备1中的所述存储器12存储计算机可读指令实现一种答案生成方法,所述处理器13可执行所述计算机可读指令从而实现:
根据获取到的待测问题、所述待测问题的问题类型、所述待测问题所对应的证据文本、与所述待测问题关联的历史问题所对应的历史答案生成输入文本;
获取预先训练完成的答案识别模型,所述答案识别模型包括多个编码器、感知网络层、多个解码器及预测输出层;
基于所述多个编码器对所述输入文本进行编码处理,得到文本编码;
基于所述感知网络层对所述文本编码进行感知处理,得到感知向量,并对所述感知向量进行归一化处理,得到所述输入文本中每个文本词汇的第一输出概率;
基于所述多个解码器及所述文本编码,对所述感知向量及所述输入文本进行解码处理,得到解码信息;
基于所述预测输出层对所述解码信息进行预测,得到所述多个解码器中每个模板词汇的第二输出概率;
根据所述第一输出概率及所述第二输出概率生成所述待测问题的问题答案。
具体地,所述处理器13对上述计算机可读指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的***,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述计算机可读存储介质上存储有计算机可读指令,其中,所述计算机可读指令被处理器13执行时用以实现以下步骤:
根据获取到的待测问题、所述待测问题的问题类型、所述待测问题所对应的证据文本、与所述待测问题关联的历史问题所对应的历史答案生成输入文本;
获取预先训练完成的答案识别模型,所述答案识别模型包括多个编码器、感知网络层、多个解码器及预测输出层;
基于所述多个编码器对所述输入文本进行编码处理,得到文本编码;
基于所述感知网络层对所述文本编码进行感知处理,得到感知向量,并对所述感知向量进行归一化处理,得到所述输入文本中每个文本词汇的第一输出概率;
基于所述多个解码器及所述文本编码,对所述感知向量及所述输入文本进行解码处理,得到解码信息;
基于所述预测输出层对所述解码信息进行预测,得到所述多个解码器中每个模板词汇的第二输出概率;
根据所述第一输出概率及所述第二输出概率生成所述待测问题的问题答案。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。所述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种答案生成方法,其特征在于,所述答案生成方法包括:
根据获取到的待测问题、所述待测问题的问题类型、所述待测问题所对应的证据文本、与所述待测问题关联的历史问题所对应的历史答案生成输入文本;
获取预先训练完成的答案识别模型,所述答案识别模型包括多个编码器、感知网络层、多个解码器及预测输出层;
基于所述多个编码器对所述输入文本进行编码处理,得到文本编码;
基于所述感知网络层对所述文本编码进行感知处理,得到感知向量,并对所述感知向量进行归一化处理,得到所述输入文本中每个文本词汇的第一输出概率;
基于所述多个解码器及所述文本编码,对所述感知向量及所述输入文本进行解码处理,得到解码信息;
基于所述预测输出层对所述解码信息进行预测,得到所述多个解码器中每个模板词汇的第二输出概率;
根据所述第一输出概率及所述第二输出概率生成所述待测问题的问题答案。
2.如权利要求1所述的答案生成方法,其特征在于,所述根据获取到的待测问题、所述待测问题的问题类型、所述待测问题所对应的证据文本、与所述待测问题关联的历史问题所对应的历史答案生成输入文本包括:
提取所述待测问题中的疑问词汇;
根据所述疑问词汇与预设词汇的匹配,识别出所述问题类型;
识别所述待测问题的生成时刻及问题场次;
根据所述生成时刻及所述问题场次获取请求问题,并获取所述请求问题的请求时刻;
根据所述请求时刻从所述请求问题中筛选出所述历史问题;
获取与所述历史问题所对应的回答文本作为所述历史答案;
拼接所述问题类型、所述待测问题、预设标识、所述证据文本及所述历史答案作为所述输入文本。
3.如权利要求1所述的答案生成方法,其特征在于,所述基于所述多个编码器对所述输入文本进行编码处理,得到文本编码包括:
对所述输入文本中每个文本词汇进行表征,得到文本向量;
对于任一编码器,基于每组权值矩阵生成所述文本向量的关注向量;
拼接多个所述关注向量,得到拼接向量;
计算配置矩阵与所述拼接向量的乘积,得到注意力信息;
根据预设矩阵及预设偏置值,对所述注意力信息进行全连接运算,得到初始向量,所述初始向量的生成公式为:y=max(a,xW1+1)2+2,其中,y表示所述初始向量,a表示预设常数,x表示所述注意力信息,W1及W2表示所述预设矩阵,b1及b2表示所述预设偏置值;
将所述初始向量作为下一个编码器的文本向量进行编码处理,直至所述多个编码器均参与编码,得到所述文本编码。
4.如权利要求1所述的答案生成方法,其特征在于,所述基于所述感知网络层对所述文本编码进行感知处理,得到感知向量包括:
对于所述感知网络层的每个隐藏层,基于该隐藏层中神经元的网络参数对所述文本编码进行全连接运算,得到该隐藏层的输出向量;
将所述输出向量作为下一个隐藏层的文本编码进行感知处理,直至所述感知网络层的每个隐藏层均参与处理,得到所述感知向量。
5.如权利要求1所述的答案生成方法,其特征在于,所述基于所述多个解码器及所述文本编码,对所述感知向量及所述输入文本进行解码处理,得到解码信息包括:
对所述输入文本进行掩码处理,得到掩码向量;
根据所述感知向量及所述掩码向量生成目标向量;
对于任一解码器,基于所述任一解码器及所述文本编码对所述目标向量进行注意力分析,得到注意力信息;
基于所述任一解码器的解码权值矩阵及解码偏置对所述注意力信息进行全连接处理,得到初始解码,并将所述初始解码作为下一个解码器的目标向量进行解码处理,直至所述多个解码器均参与解码,得到所述解码信息。
6.如权利要求1所述的答案生成方法,其特征在于,所述基于所述预测输出层对所述解码信息进行预测,得到所述多个解码器中每个模板词汇的第二输出概率包括:
基于所述预测输出层的激活函数对所述解码信息进行激活处理,得到激活信息;
对所述激活信息进行归一化处理,得到所述第二输出概率。
7.如权利要求1所述的答案生成方法,其特征在于,所述根据所述第一输出概率及所述第二输出概率生成所述待测问题的问题***括:
对所述第一输出概率及所述第二输出概率进行加权和运算,得到所述文本词汇及所述模板词汇的目标概率;
将所述目标概率大于预设概率阈值的词汇确定为目标词汇;
根据所述目标词汇生成所述问题答案。
8.一种答案生成装置,其特征在于,所述答案生成装置包括:
生成单元,用于根据获取到的待测问题、所述待测问题的问题类型、所述待测问题所对应的证据文本、与所述待测问题关联的历史问题所对应的历史答案生成输入文本;
获取单元,用于获取预先训练完成的答案识别模型,所述答案识别模型包括多个编码器、感知网络层、多个解码器及预测输出层;
编码单元,用于基于所述多个编码器对所述输入文本进行编码处理,得到文本编码;
感知单元,用于基于所述感知网络层对所述文本编码进行感知处理,得到感知向量,并对所述感知向量进行归一化处理,得到所述输入文本中每个文本词汇的第一输出概率;
解码单元,用于基于所述多个解码器及所述文本编码,对所述感知向量及所述输入文本进行解码处理,得到解码信息;
预测单元,用于基于所述预测输出层对所述解码信息进行预测,得到所述多个解码器中每个模板词汇的第二输出概率;
所述生成单元,还用于根据所述第一输出概率及所述第二输出概率生成所述待测问题的问题答案。
9.一种电子设备,其特征在于,所述电子设备包括:
存储器,存储有计算机可读指令;及
处理器,执行所述存储器中存储的计算机可读指令以实现如权利要求1至7中任意一项所述的答案生成方法。
10.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质中存储有计算机可读指令,所述计算机可读指令被电子设备中的处理器执行以实现如权利要求1至7中任意一项所述的答案生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310593894.9A CN116628161A (zh) | 2023-05-24 | 2023-05-24 | 答案生成方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310593894.9A CN116628161A (zh) | 2023-05-24 | 2023-05-24 | 答案生成方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116628161A true CN116628161A (zh) | 2023-08-22 |
Family
ID=87620822
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310593894.9A Pending CN116628161A (zh) | 2023-05-24 | 2023-05-24 | 答案生成方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116628161A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117743559A (zh) * | 2024-02-20 | 2024-03-22 | 厦门国际银行股份有限公司 | 一种基于rag的多轮对话处理方法、装置以及设备 |
-
2023
- 2023-05-24 CN CN202310593894.9A patent/CN116628161A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117743559A (zh) * | 2024-02-20 | 2024-03-22 | 厦门国际银行股份有限公司 | 一种基于rag的多轮对话处理方法、装置以及设备 |
CN117743559B (zh) * | 2024-02-20 | 2024-06-04 | 厦门国际银行股份有限公司 | 一种基于rag的多轮对话处理方法、装置以及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112949786B (zh) | 数据分类识别方法、装置、设备及可读存储介质 | |
CN111694826B (zh) | 基于人工智能的数据增强方法、装置、电子设备及介质 | |
CN112989826B (zh) | 基于人工智能的试题分数确定方法、装置、设备及介质 | |
CN113656547B (zh) | 文本匹配方法、装置、设备及存储介质 | |
CN113722474A (zh) | 文本分类方法、装置、设备及存储介质 | |
CN114037545A (zh) | 客户推荐方法、装置、设备及存储介质 | |
CN114281931A (zh) | 文本匹配方法、装置、设备、介质及计算机程序产品 | |
CN116113356A (zh) | 用于确定用户痴呆程度的方法及装置 | |
CN116628161A (zh) | 答案生成方法、装置、设备及存储介质 | |
CN115222443A (zh) | 客户群体划分方法、装置、设备及存储介质 | |
CN113724830B (zh) | 基于人工智能的用药风险检测方法及相关设备 | |
CN113535925B (zh) | 语音播报方法、装置、设备及存储介质 | |
CN113268597B (zh) | 文本分类方法、装置、设备及存储介质 | |
CN116468043A (zh) | 嵌套实体识别方法、装置、设备及存储介质 | |
CN116884648A (zh) | 基于中医问诊的语音交互优化方法、装置、设备及介质 | |
CN113627186B (zh) | 基于人工智能的实体关系检测方法及相关设备 | |
CN113326365B (zh) | 回复语句生成方法、装置、设备及存储介质 | |
CN113269179B (zh) | 数据处理方法、装置、设备及存储介质 | |
CN111680515B (zh) | 基于ai识别的答案确定方法、装置、电子设备及介质 | |
CN114942749A (zh) | 审批***开发方法、装置、设备及存储介质 | |
CN113486680A (zh) | 文本翻译方法、装置、设备及存储介质 | |
CN113408265A (zh) | 基于人机交互的语义解析方法、装置、设备及存储介质 | |
CN113688319B (zh) | 医疗产品推荐方法及相关设备 | |
CN111582404A (zh) | 内容分类方法、装置及可读存储介质 | |
CN113434895B (zh) | 文本解密方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |