CN113569998A - 票据自动识别方法、装置、计算机设备及存储介质 - Google Patents
票据自动识别方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN113569998A CN113569998A CN202111015585.0A CN202111015585A CN113569998A CN 113569998 A CN113569998 A CN 113569998A CN 202111015585 A CN202111015585 A CN 202111015585A CN 113569998 A CN113569998 A CN 113569998A
- Authority
- CN
- China
- Prior art keywords
- network model
- bill
- data set
- bert
- bert network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例属于人工智能和数字医疗领域,应用于智慧医疗领域中,涉及一种票据自动识别方法,包括将训练数据集输入至构建的BERT网络模型中,得到表层特征、句法特征和语义特征进行拼接,得到拼接特征,基于拼接特征输出BERT网络模型的预测结果,根据预测结果计算第一损失函数,根据第一损失函数对BERT网络模型进行迭代更新,输出BERT网络模型作为票据识别模型,对待识别票据进行光学字符识别,得到文本数据,将文本数据输入至票据识别模型,输出分类结果,并确定文本数据的字段类型。本申请还提供一种票据自动识别装置、计算机设备及存储介质。此外,本申请还涉及区块链技术,待识别票据可存储于区块链中。本申请可以自动识别出文本数据对应的字段类别。
Description
技术领域
本申请涉及人工智能技术领域和数字医疗技术领域,尤其涉及一种票据自动识别方法、装置、计算机设备及存储介质。
背景技术
随着国家大力推进基本医疗全国联网和异地就医结算***建设,使手工报销比例在逐年降低,但本地和异地零星报销长期存在。使用人工报销,成本高,易出错,而且在报销高峰期还存在报销压力大,医保三目录对码困难的问题。
对此,引入智能票据识别技术识别纸质***。目前智能票据识别技术主要采用OCR技术,虽然OCR技术已经可以检测到医疗***,医疗住院清单的文字,且高精度识别检测框里面的文字内容,但是针对不同版式的医疗票据,还需要人工做后处理,才能对接医保局***,进行医保报销等操作,依然存在过程繁琐、工作量大以及效率低下等问题
发明内容
本申请实施例的目的在于提出一种票据自动识别方法、装置、计算机设备及存储介质,以解决相关技术中票据识别适用性低,进而造成部分后续操作过程繁琐、效率低下的技术问题。
为了解决上述技术问题,本申请实施例提供一种票据自动识别方法,采用了如下所述的技术方案:
获取原始票据数据集,预处理所述原始票据数据集获得训练数据集;
将所述训练数据集输入至构建的BERT网络模型中,得到表层特征、句法特征和语义特征;
将所述表层特征、所述句法特征以及所述语义特征进行拼接,得到拼接特征;
基于所述拼接特征输出所述BERT网络模型的预测结果;
根据所述预测结果计算第一损失函数,根据所述第一损失函数对所述BERT网络模型进行迭代更新,并确定迭代更新后的所述BERT网络模型是否收敛,当迭代更新后的所述BERT网络模型收敛,输出所述BERT网络模型作为票据识别模型;
获取待识别票据,对所述待识别票据进行光学字符识别,得到与所述待识别票据对应的文本数据;
将所述文本数据输入至票据识别模型,输出分类结果,并根据所述分类结果得到所述文本数据的字段类型。
进一步的,所述将所述训练数据集输入至构建的BERT网络模型中,得到表层特征、句法特征和语义特征包括:
将所述训练数据集输入至所述BERT网络模型的输入层进行向量转换,得到与所述训练数据集对应的特征向量数据;
通过所述BERT网络模型的特征提取层对所述特征向量数据进行特征提取,获得所述表层特征、所述句法特征和所述语义特征。
进一步的,所述特征提取层包括底层网络、中间层网络和高层网络,所述通过所述BERT网络模型的特征提取层对所述特征向量数据进行特征提取,获得所述表层特征、所述句法特征和所述语义特征包括:
通过所述底层网络从所述文本特征向量中提取表层特征,并将表层特征分别输入至所述中间层网络和所述高层网络;
通过所述中间层网络对所述表层特征进行特征提取,获得所述句法特征,并将所述句法特征输入至所述高层网络;
通过所述高层网络对所述表层特征和所述句法特征进行特征提取,得到所述语义特征。
进一步的,所述基于所述拼接特征输出所述BERT网络模型的预测结果包括:
利用所述BERT网络模型的softmax层对所述拼接特征进行预测,得到所述训练数据集对应的每个标签的预测概率;
根据所述预测概率得到预测结果。
进一步的,所述根据所述第一损失函数对所述BERT网络模型进行迭代更新,并确定迭代更新后的所述BERT网络模型是否收敛包括:
根据所述第一损失函数调整所述BERT网络模型的模型参数,得到中间BERT网络模型;
计算所述中间BERT网络模型的第二损失函数,根据所述第一损失函数和所述第二损失函数判断所述中间BERT网络模型是否收敛。
进一步的,所述根据所述第一损失函数和所述第二损失函数判断所述中间BERT网络模型是否收敛包括:
计算所述第一损失函数和第二损失函数之间的差值,若所述差值在预设范围之内,则所述中间BERT网络模型收敛。
进一步的,所述预处理所述原始票据数据集得到训练数据集包括:
将所述原始票据数据集中的原始票据数据进行字段转换,得到包含字段名称和对应的字段值的原始票据数据集,其中所述字段名称为所述字段值对应的训练标签;
按照预设比例抽取预处理后的所述原始票据数据集得到训练数据集。
为了解决上述技术问题,本申请实施例还提供一种票据自动识别装置,采用了如下所述的技术方案:
获取模块,用于获取原始票据数据集,预处理所述原始票据数据集获得训练数据集;
特征模块,用于将所述训练数据集输入至构建的BERT网络模型中,得到表层特征、句法特征和语义特征;
拼接模块,用于将所述表层特征、所述句法特征以及所述语义特征进行拼接,得到拼接特征;
预测模块,用于基于所述拼接特征输出所述BERT网络模型的预测结果;
迭代更新模块,用于根据所述预测结果计算第一损失函数,根据所述第一损失函数对所述BERT网络模型进行迭代更新,并确定迭代更新后的所述BERT网络模型是否收敛,当迭代更新后的所述BERT网络模型收敛,输出所述BERT网络模型作为票据识别模型;
识别模块,用于获取待识别票据,对所述待识别票据进行光学字符识别,得到与所述待识别票据对应的文本数据;
分类模块,用于将所述文本数据输入至票据识别模型,输出分类结果,并根据所述分类结果得到所述文本数据的字段类型。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:
该计算机设备包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如上所述的票据自动识别方法的步骤。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:
所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如上所述的票据自动识别方法的步骤。
与现有技术相比,本申请实施例主要有以下有益效果:
本申请通过获取原始票据数据集,预处理原始票据数据集获得训练数据集,将训练数据集输入至构建的BERT网络模型中,得到表层特征、句法特征和语义特征,将表层特征、句法特征以及语义特征进行拼接,得到拼接特征,基于拼接特征输出BERT网络模型的预测结果,根据预测结果计算第一损失函数,根据第一损失函数对BERT网络模型进行迭代更新,并确定迭代更新后的BERT网络模型是否收敛,当迭代更新后的BERT网络模型收敛,输出BERT网络模型作为票据识别模型,获取待识别票据,对待识别票据进行光学字符识别,得到与待识别票据对应的文本数据,将文本数据输入至票据识别模型,输出分类结果,并根据分类结果得到文本数据的字段类型;本申请可以通过票据识别模型自动处理经过光学字符识别的票据,对于票据中每个文字框的文本数据,可以自动识别出文本数据对应的字段类别;同时,用训练好的票据识别模型代替人工后处理代码,增加代码的可读性,易于维护,还可以减轻部署压力,减少线上运行故障等无法预知的情况。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请可以应用于其中的示例性***架构图;
图2根据本申请的票据自动识别方法的一个实施例的流程图;
图3是根据本申请的票据自动识别装置的一个实施例的结构示意图;
图4是根据本申请的计算机设备的一个实施例的结构示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
本申请提供了一种票据自动识别方法,可以应用于如图1所示的***架构100中,***架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture ExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving PictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的票据自动识别方法一般由服务器执行,相应地,票据自动识别装置一般设置于服务器中。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互***、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的票据自动识别的方法的一个实施例的流程图。所述的票据自动识别方法,包括以下步骤:
步骤S201,获取原始票据数据集,预处理原始票据数据集获得训练数据集。
本实施例中,原始票据数据集为医疗票据的票据图片,可以通过相连接各家保险公司,通过人工录入的方式获取。在传输医疗票据图片的同时,可以一同传输票据来源、票据用户、票据类型、票据所属地域以及票据个人信息。
预处理原始票据数据集获得训练数据集的步骤包括:
采用字段赋值法对原始票据数据集中的原始票据数据进行字段转换,得到包含字段名称和对应的字段值的原始票据数据集,其中字段名称为字段值对应的训练标签;
按照预设比例抽取预处理后的原始票据数据集得到训练数据集。
将获取到的原始票据图片预处理成“字段名称”和对应的“字段值格式”,可以表示为{字段名称:字段值},得到包含字段名称和对应的字段值的原始票据数据集。字段名称是字段值对应的训练标签;如:{姓名:王二},{***编号:0443911990},{金额:10.00},{规格:ml},{药品名称:头孢地尼分散片},{日期:20190305},{医院名称:南京市儿童医院},{医保类型:自费},{性别:男}等。
字段名称作为字段值对应的字段类型,不同类型的数据尽可能做到均衡和全面,将原始票据数据集按照一定比例划分为训练数据集和测试数据集,例如,训练数据集和测试数据集按照9:1的比例进行抽取。
步骤S202,将训练数据集输入至构建的BERT网络模型中,得到表层特征、句法特征和语义特征。
BERT(Bidirectional Encoder Representations from Transformers,基于转换器的双向编码器表征)网络模型,BERT网络模型的目标是利用大规模无标注语料训练、学习文本所包含丰富语义信息表达,然后将文本的语义表达在特定NLP(NaturalLanguageProcessing,自然语言处理)任务中作微调,最终应用于该NLP任务。
在本实施例中,BERT网络模型至少包括输入层、特征提取层和输出层,具体地,将训练数据集输入至所述BERT网络模型的输入层进行向量转换,得到与训练数据集对应的特征向量数据,通过BERT网络模型的特征提取层对特征向量数据进行特征提取,获得表层特征、句法特征和语义特征。
在本实施例中,将训练数据输入BERT网络模型进行特征提取之前,需要对训练数据进行向量转换,得到文本序列。具体地,通过在首条训练数据之前添加预定义起始符号,以及确定每条训练数据对应的若干语义单元符号,得到文本序列。需要说明,其中预定义起始符号可以由人工设定,如可以设定为[start]或[CLS]或[C]。对于其中若干语义单元符号的确定,可以将每条训练数据包含的若干个字,确定为上述若干语义单元符号,还可以对每条训练数据进行分词处理,并将得到的若干分词确定为上述若干语义单元符号。这意味着,上述语义单元符号(token)可以为训练数据中的字或词。
还可以在其中每两个相邻的训练数据之间添加预定义分隔符号,其中,预定义分隔符号用于区隔两条相邻的训练数据。预定分隔符号可以由人工设定,例如,可以设定为[SEP]或[S]等。举例说明,确定出的语义符号序列为:
[CLS]Tok1_1Tok1_2[SEP]Tok2_1Tok2_2[SEP]Tok3_1...
其中,[CLS]表示预定义起始符号,Tokx_x表示语义单元符号,[SEP]表示预定义分隔符号,其中[SEP]可以为两个以上,从而实现将输入训练数据的数量由两条拓展至两条以上。
将训练数据进行向量转换,得到语义单位(Token)向量、文本(Segment)向量和位置(Position)向量,分别代表单词信息、句子信息和位置信息。将Token向量、Segment向量和Position向量作为特征向量数据。
在本实施例一些可选的实现方式中,上述通过BERT网络模型的特征提取层对特征向量数据进行特征提取,获得表层特征、句法特征和语义特征包括:
通过底层网络从文本特征向量中提取表层特征,并将表层特征分别输入至中间层网络和高层网络;
通过中间层网络对表层特征进行特征提取,获得句法特征,并将句法特征输入至高层网络;
通过高层网络对表层特征和句法特征进行特征提取,得到语义特征。
特征提取层包括堆叠而成的12层网络结构,每层网络结构采用转换器(Transformer)的解码器(encoder)部分,每一层的encoder包括一层多头注意力机制(Muti-Head-Attention)和一层前馈神经网络(Position-Wise-Feed-Forward-Networks)。其中,12层网络结构中包含1~4层底层网络,5~8层中间层网络和9~12层高层网络,底层网络用来学习短语级别的表层特征,中间层网络用来学习句法级别的句法特征,高层网络用来学习语义级别的语义特征。
在本实施例中,需要对BERT网络模型的特征提取层进行改造,将第4层网络、第8层网络和第12层网络进行连接,即第8层网络结构的输入为第7层网络结构的输出和第4层网络结构的输出,第12层网络结构的输入则为第11层网络结构的输出和第8层网络结构的输出,目的是在进行特征强化,使得进行分类预测的结果更加准确。
步骤S203,将表层特征、句法特征以及语义特征进行拼接,得到拼接特征。
在本实施例中,表层特征X1、句法特征X2和语义特征X3进行拼接,可以采用的拼接公式具体如下:
步骤S204,基于拼接特征输出BERT网络模型的预测结果。
具体地,利用BERT网络模型的softmax层对拼接特征进行预测,得到训练数据集对应的每个标签的预测概率,根据预测概率得到预测结果。
在本实施例中,可以将拼接特征通过全连接层输入到softmax层进行预测,得到训练数据对应的每个标签的预测概率,预测概率的计算公式如下:
Pr=softmax(W·Xm+b)
其中,Xm为拼接特征,W和b分别是softmax可训练的权重矩阵和偏置,Pr为预测概率。
拼接特征输入至softmax层,预测出文本数据属于不同标签对应的预测概率,概率值在0~1之间。具体地,输出预测概率向量P={p1,p2,...,pη},其中,pη表示输出特征属于η类别的概率,η为预测类别。
需要说明,全连接层可以单独构建,连接于第12层网络结构与softmax层之间,也可以由第12层网络结构的前馈神经网络实现。
计算出预测概率后,比较各个标签的预测概率,预测概率最大的标签即为训练数据对应的类别。
步骤S205,根据预测结果计算第一损失函数,根据第一损失函数对BERT网络模型进行迭代更新,并确定迭代更新后的BERT网络模型是否收敛,当迭代更新后的BERT网络模型收敛,输出BERT网络模型作为票据识别模型。
在本实施例中,损失函数的计算公式如下:
其中,N为训练数据的数量,yi表示第i个训练数据的输出结果,Pr(yi)表示yi对应的预测概率。
在本实施例一些可选的实现方式中,上述根据第一损失函数对BERT网络模型进行迭代更新,并确定迭代更新后的BERT网络模型是否收敛包括:
根据第一损失函数调整BERT网络模型的模型参数,得到中间BERT网络模型;
计算中间BERT网络模型的第二损失函数,根据第一损失函数和第二损失函数判断中间BERT网络模型是否收敛。
根据损失函数调整模型参数,继续进行迭代训练,模型训练到一定程度,此时,模型的性能达到最优状态,损失函数无法继续下降,即收敛。而判断收敛的方式具体为计算第一损失函数和第二损失函数之间的差值,若差值在预设范围之内,则中间BERT网络模型收敛。
具体的,判断收敛的方式即为只需要计算前后两轮迭代中的损失函数,若损失函数仍在变化,则可以继续选择训练数据集输入至BERT网络模型中以对BERT网络模型继续进行迭代训练;若损失函数没有显著变化,则可认为模型收敛,此时确定BERT网络模型训练完成,则停止训练,并输出最终的BERT网络模型作为票据识别模型。
步骤S206,获取待识别票据,对待识别票据进行光学字符识别,得到与待识别票据对应的文本数据。
待识别票据可以包括增值税票据、银行回单票据、专票票据、过桥费票据、购物小票票据、医疗票据、银行兑票票据等,本实施例中的待识别票据具体为医疗票据,通过光学字符识别(Optical Character Recognition,OCR)技术对获取到的待识别票据进行分析识别处理,并返回票据上面的文本数据。文本数据可以包括票据文字信息以及对应的位置、表格布局和区域等。
OCR技术可以采用百度的OCR文字识别接口,也可以使用谷歌开源OCR引擎Tesseract。具体地,通过OCR技术对待识别票据进行扫描,获得该票据的原始票据图像;然后将对该原始票据图像进行票据信息采集;这个信息采集的过程包括图像灰度化、降噪、二值化、字符切分操作等预处理过程。
对于预处理,主要是为了减少图像的无用信息,获得有效图像,方便后续的处理。具体地,在对原始票据图像进行预处理时,首先对原始票据图像进行区域划分(区域划分的主要方式是识别票据表格中的线条信息),划分出包括有效票据信息的有效区域,得到布局特征,其中,该有效区域的图像可称为有效图像,然后再针对该有效图像进行后续的字符特征提取和识别,得到文字识别特征,例如,对某一票据而言,首先,识别表格的线条规律特征,基于该线条规律特征,可对票据进行划分,从而得到布局特征,然后获取出有效图像,再对该部分的有效图像进行针对性的处理,得到文字识别特征,从而减少了数据计算和处理量,提高识别效率。
当然,图像预处理还可以其它步骤,例如图像二值化、降噪、字符切分等操作。其中,二值化是指将原始票据图像转化为只含两种黑白颜色的二值图像,这是由于彩色图像所含信息量巨大,对其进行后续处理时计算量也会随之增大,花费的时间也会边长,因此为提高处理和识别的效率,可先对彩色图进行二值化处理;降噪则是通过滤波器获取其它方式解决实际图像由于噪声干扰而导致图像质量下降的问题;而字符切分则是指将一连串的字符分成单个具有确定含义的字(或是单词、数字),再对其进行识别。
在获得有效图像时,即可对有效图像中进行字符特征提取。字符特征可说是识别的主要依据,简易的区分可分为两类:一为统计的特征,如文字区域内的黑/白点数比,当文字区分成好几个区域时,这一个个区域黑/白点数比之联合,就成了空间的一个数值向量,在比对时,基本的数学理论就足以应付了;而另一类特征为结构的特征,如文字影像细线化后,取得字的笔划端点、交叉点之数量及位置,或以笔划段为特征。
在获取到票据信息的字符特征,即可配合对应的比对方法,将该字符特征与字符库中的备选特征进行匹配,从而找到最接近的特征,并根据该最接近特征的字符含义确定该票据信息的含义,进而得到该票据对应的文本数据。
需要强调的是,为进一步保证待识别票据的私密和安全性,上述待识别票据还可以存储于一区块链的节点中。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
步骤S207,将文本数据输入至票据识别模型,输出分类结果,并根据分类结果得到文本数据的字段类型。
本实施例中,将文本数据进行向量转换,得到Token向量、Segment向量和Position向量,分别代表单词信息、句子信息和位置信息。将Token向量、Segment向量和Position向量作为文本特征向量输入至票据识别模型进行特征提取,将得到的拼接特征经过softmax层进行预测,得到文本数据对应的每个标签的预测概率,并输出分类结果。
需要说明,标签是文本数据对应的字段名称,例如文本数据为王二,则对应的字段名称为姓名,字段名称作为字段类型,预测概率最大的标签即为文本数据对应的字段类型。
本申请可以通过票据识别模型自动处理经过光学字符识别的票据,对于票据中每个文字框的文本数据,可以自动识别出文本数据对应的字段类别;同时,用训练好的票据识别模型代替人工后处理代码,增加代码的可读性,易于维护,还可以减轻部署压力,减少线上运行故障等无法预知的情况。
本申请可用于众多通用或专用的计算机***环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器***、基于微处理器的***、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何***或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本申请可应用于智慧医疗领域中,从而推动智慧城市的建设。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,该计算机可读指令可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
进一步参考图3,作为对上述图2所示方法的实现,本申请提供了一种票据自动识别装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图3所示,本实施例所述的票据自动识别装置300包括:获取模块301、特征模块302、拼接模块303、预测模块304、迭代更新模块305、识别模块306以及分类模块307。其中:
获取模块301用于获取原始票据数据集,预处理所述原始票据数据集获得训练数据集;
特征模块302用于将所述训练数据集输入至构建的BERT网络模型中,得到表层特征、句法特征和语义特征;
拼接模块303用于将所述表层特征、所述句法特征以及所述语义特征进行拼接,得到拼接特征;
预测模块304用于基于所述拼接特征输出所述BERT网络模型的预测结果;
迭代更新模块305用于根据所述预测结果计算第一损失函数,根据所述第一损失函数对所述BERT网络模型进行迭代更新,并确定迭代更新后的所述BERT网络模型是否收敛,当迭代更新后的所述BERT网络模型收敛,输出所述BERT网络模型作为票据识别模型;
识别模块306用于获取待识别票据,对所述待识别票据进行光学字符识别,得到与所述待识别票据对应的文本数据;
分类模块307用于将所述文本数据输入至票据识别模型,输出分类结果,并根据所述分类结果得到所述文本数据的字段类型。
需要强调的是,为进一步保证待识别票据的私密和安全性,上述待识别票据还可以存储于一区块链的节点中。
上述票据自动识别装置,通过票据识别模型自动处理经过光学字符识别的票据,对于票据中每个文字框的文本数据,可以自动识别出文本数据对应的字段类别;同时,用训练好的票据识别模型代替人工后处理代码,增加代码的可读性,易于维护,还可以减轻部署压力,减少线上运行故障等无法预知的情况。
在本实施例中,特征模块302包括向量转换子模块和特征提取子模块,向量转换子模块用于将所述训练数据集输入至所述BERT网络模型的输入层进行向量转换,得到与所述训练数据集对应的特征向量数据;特征提取子模块用于通过所述BERT网络模型的特征提取层对所述特征向量数据进行特征提取,获得所述表层特征、所述句法特征和所述语义特征。
在本实施例中,特征提取子模块进一步用于:
通过所述底层网络从所述文本特征向量中提取表层特征,并将表层特征分别输入至所述中间层网络和所述高层网络;
通过所述中间层网络对所述表层特征进行特征提取,获得所述句法特征,并将所述句法特征输入至所述高层网络;
通过所述高层网络对所述表层特征和所述句法特征进行特征提取,得到所述语义特征。
在本实施例的一些可选的实现方式中,预测模块304进一步用于:
利用所述BERT网络模型的softmax层对所述拼接特征进行预测,得到所述训练数据集对应的每个标签的预测概率;
根据所述预测概率得到预测结果。
在本实施例中,迭代更新模块305包括调整子模块和计算子模块,调整子模块用于根据所述第一损失函数调整所述BERT网络模型的模型参数,得到中间BERT网络模型;计算子模块用于计算所述中间BERT网络模型的第二损失函数,根据所述第一损失函数和所述第二损失函数判断所述中间BERT网络模型是否收敛。
在本实施例中,计算子模块进一步用于计算所述第一损失函数和第二损失函数之间的差值,若所述差值在预设范围之内,则所述中间BERT网络模型收敛。
在本实施例的一些可选的实现方式中,获取模块301进一步用于:
采用字段赋值法对所述原始票据数据集中的原始票据数据进行字段转换,得到包含字段名称和对应的字段值的原始票据数据集,其中所述字段名称为所述字段值对应的训练标签;
按照预设比例抽取预处理后的所述原始票据数据集得到训练数据集。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图4,图4为本实施例计算机设备基本结构框图。
所述计算机设备4包括通过***总线相互通信连接存储器41、处理器42、网络接口43。需要指出的是,图中仅示出了具有组件41-43的计算机设备4,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器41至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器41可以是所述计算机设备4的内部存储单元,例如该计算机设备4的硬盘或内存。在另一些实施例中,所述存储器41也可以是所述计算机设备4的外部存储设备,例如该计算机设备4上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。当然,所述存储器41还可以既包括所述计算机设备4的内部存储单元也包括其外部存储设备。本实施例中,所述存储器41通常用于存储安装于所述计算机设备4的操作***和各类应用软件,例如票据自动识别方法的计算机可读指令等。此外,所述存储器41还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器42在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器42通常用于控制所述计算机设备4的总体操作。本实施例中,所述处理器42用于运行所述存储器41中存储的计算机可读指令或者处理数据,例如运行所述票据自动识别方法的计算机可读指令。
所述网络接口43可包括无线网络接口或有线网络接口,该网络接口43通常用于在所述计算机设备4与其他电子设备之间建立通信连接。
本实施例通过处理器执行存储在存储器的计算机可读指令时实现如上述实施例票据自动识别方法的步骤,通过票据识别模型自动处理经过光学字符识别的票据,对于票据中每个文字框的文本数据,可以自动识别出文本数据对应的字段类别;同时,用训练好的票据识别模型代替人工后处理代码,增加代码的可读性,易于维护,还可以减轻部署压力,减少线上运行故障等无法预知的情况。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被至少一个处理器执行,以使所述至少一个处理器执行如上述的票据自动识别方法的步骤,通过票据识别模型自动处理经过光学字符识别的票据,对于票据中每个文字框的文本数据,可以自动识别出文本数据对应的字段类别;同时,用训练好的票据识别模型代替人工后处理代码,增加代码的可读性,易于维护,还可以减轻部署压力,减少线上运行故障等无法预知的情况。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。
Claims (10)
1.一种票据自动识别方法,其特征在于,包括下述步骤:
获取原始票据数据集,预处理所述原始票据数据集获得训练数据集;
将所述训练数据集输入至构建的BERT网络模型中,得到表层特征、句法特征和语义特征;
将所述表层特征、所述句法特征以及所述语义特征进行拼接,得到拼接特征;
基于所述拼接特征输出所述BERT网络模型的预测结果;
根据所述预测结果计算第一损失函数,根据所述第一损失函数对所述BERT网络模型进行迭代更新,并确定迭代更新后的所述BERT网络模型是否收敛,当迭代更新后的所述BERT网络模型收敛,输出所述BERT网络模型作为票据识别模型;
获取待识别票据,对所述待识别票据进行光学字符识别,得到与所述待识别票据对应的文本数据;
将所述文本数据输入至所述票据识别模型,输出分类结果,并根据所述分类结果得到所述文本数据的字段类型。
2.根据权利要求1所述的票据自动识别方法,其特征在于,所述将所述训练数据集输入至构建的BERT网络模型中,得到表层特征、句法特征和语义特征包括:
将所述训练数据集输入至所述BERT网络模型的输入层进行向量转换,得到与所述训练数据集对应的特征向量数据;
通过所述BERT网络模型的特征提取层对所述特征向量数据进行特征提取,获得所述表层特征、所述句法特征和所述语义特征。
3.根据权利要求2所述的票据自动识别方法,其特征在于,所述特征提取层包括底层网络、中间层网络和高层网络,所述通过所述BERT网络模型的特征提取层对所述特征向量数据进行特征提取,获得所述表层特征、所述句法特征和所述语义特征包括:
通过所述底层网络从所述文本特征向量中提取表层特征,并将表层特征分别输入至所述中间层网络和所述高层网络;
通过所述中间层网络对所述表层特征进行特征提取,获得所述句法特征,并将所述句法特征输入至所述高层网络;
通过所述高层网络对所述表层特征和所述句法特征进行特征提取,得到所述语义特征。
4.根据权利要求1所述的票据自动识别方法,其特征在于,所述基于所述拼接特征输出所述BERT网络模型的预测结果包括:
利用所述BERT网络模型的softmax层对所述拼接特征进行预测,得到所述训练数据集对应的每个标签的预测概率;
根据所述预测概率得到预测结果。
5.根据权利要求1所述的票据自动识别方法,其特征在于,所述根据所述第一损失函数对所述BERT网络模型进行迭代更新,并确定迭代更新后的所述BERT网络模型是否收敛包括:
根据所述第一损失函数调整所述BERT网络模型的模型参数,得到中间BERT网络模型;
计算所述中间BERT网络模型的第二损失函数,根据所述第一损失函数和所述第二损失函数判断所述中间BERT网络模型是否收敛。
6.根据权利要求5所述的票据自动识别方法,其特征在于,所述根据所述第一损失函数和所述第二损失函数判断所述中间BERT网络模型是否收敛包括:
计算所述第一损失函数和第二损失函数之间的差值,若所述差值在预设范围之内,则所述中间BERT网络模型收敛。
7.根据权利要求1所述的票据自动识别方法,其特征在于,所述预处理所述原始票据数据集得到训练数据集包括:
采用字段赋值法对所述原始票据数据集中的原始票据数据进行字段转换,得到包含字段名称和对应的字段值的原始票据数据集,其中所述字段名称为所述字段值对应的训练标签;
按照预设比例抽取预处理后的所述原始票据数据集得到训练数据集。
8.一种票据自动识别装置,其特征在于,包括:
获取模块,用于获取原始票据数据集,预处理所述原始票据数据集获得训练数据集;
特征模块,用于将所述训练数据集输入至构建的BERT网络模型中,得到表层特征、句法特征和语义特征;
拼接模块,用于将所述表层特征、所述句法特征以及所述语义特征进行拼接,得到拼接特征;
预测模块,用于基于所述拼接特征输出所述BERT网络模型的预测结果;
迭代更新模块,用于根据所述预测结果计算第一损失函数,根据所述第一损失函数对所述BERT网络模型进行迭代更新,并确定迭代更新后的所述BERT网络模型是否收敛,当迭代更新后的所述BERT网络模型收敛,输出所述BERT网络模型作为票据识别模型;
识别模块,用于获取待识别票据,对所述待识别票据进行光学字符识别,得到与所述待识别票据对应的文本数据;
分类模块,用于将所述文本数据输入至票据识别模型,输出分类结果,并根据所述分类结果得到所述文本数据的字段类型。
9.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至7中任一项所述的票据自动识别方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至7中任一项所述的票据自动识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111015585.0A CN113569998A (zh) | 2021-08-31 | 2021-08-31 | 票据自动识别方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111015585.0A CN113569998A (zh) | 2021-08-31 | 2021-08-31 | 票据自动识别方法、装置、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113569998A true CN113569998A (zh) | 2021-10-29 |
Family
ID=78173321
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111015585.0A Pending CN113569998A (zh) | 2021-08-31 | 2021-08-31 | 票据自动识别方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113569998A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114049192A (zh) * | 2022-01-12 | 2022-02-15 | 广东企数标普科技有限公司 | 基于智能算法的***数据处理方法及装置 |
CN114092948A (zh) * | 2021-11-24 | 2022-02-25 | 北京百度网讯科技有限公司 | 一种票据识别方法、装置、设备以及存储介质 |
CN115019327A (zh) * | 2022-06-28 | 2022-09-06 | 珠海金智维信息科技有限公司 | 基于碎片票据分词和Transformer网络的碎片票据识别方法及*** |
-
2021
- 2021-08-31 CN CN202111015585.0A patent/CN113569998A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114092948A (zh) * | 2021-11-24 | 2022-02-25 | 北京百度网讯科技有限公司 | 一种票据识别方法、装置、设备以及存储介质 |
CN114092948B (zh) * | 2021-11-24 | 2023-09-22 | 北京百度网讯科技有限公司 | 一种票据识别方法、装置、设备以及存储介质 |
CN114049192A (zh) * | 2022-01-12 | 2022-02-15 | 广东企数标普科技有限公司 | 基于智能算法的***数据处理方法及装置 |
CN114049192B (zh) * | 2022-01-12 | 2022-04-12 | 广东企数标普科技有限公司 | 基于智能算法的***数据处理方法及装置 |
CN115019327A (zh) * | 2022-06-28 | 2022-09-06 | 珠海金智维信息科技有限公司 | 基于碎片票据分词和Transformer网络的碎片票据识别方法及*** |
CN115019327B (zh) * | 2022-06-28 | 2024-03-08 | 珠海金智维信息科技有限公司 | 基于碎片票据分词和Transformer网络的碎片票据识别方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113569998A (zh) | 票据自动识别方法、装置、计算机设备及存储介质 | |
CN112632278A (zh) | 一种基于多标签分类的标注方法、装置、设备及存储介质 | |
CN112330331A (zh) | 基于人脸识别的身份验证方法、装置、设备及存储介质 | |
CN112084779B (zh) | 用于语义识别的实体获取方法、装置、设备及存储介质 | |
CN114398477A (zh) | 基于知识图谱的政策推荐方法及其相关设备 | |
CN113505601A (zh) | 一种正负样本对构造方法、装置、计算机设备及存储介质 | |
CN111783471A (zh) | 自然语言的语义识别方法、装置、设备及存储介质 | |
CN113627797A (zh) | 入职员工画像生成方法、装置、计算机设备及存储介质 | |
CN115438149A (zh) | 一种端到端模型训练方法、装置、计算机设备及存储介质 | |
CN115730597A (zh) | 多级语义意图识别方法及其相关设备 | |
CN114398466A (zh) | 基于语义识别的投诉分析方法、装置、计算机设备及介质 | |
CN114022891A (zh) | 扫描文本的关键信息提取方法、装置、设备及存储介质 | |
CN113723077A (zh) | 基于双向表征模型的句向量生成方法、装置及计算机设备 | |
CN113705192A (zh) | 文本处理方法、装置与存储介质 | |
CN113505595A (zh) | 文本短语抽取方法、装置、计算机设备及存储介质 | |
CN112686053A (zh) | 一种数据增强方法、装置、计算机设备及存储介质 | |
CN112669850A (zh) | 语音质量检测方法、装置、计算机设备及存储介质 | |
CN112182157A (zh) | 在线序列标注模型的训练方法、在线标注方法及相关设备 | |
CN112199954A (zh) | 基于语音语义的疾病实体匹配方法、装置及计算机设备 | |
CN115730237B (zh) | 垃圾邮件检测方法、装置、计算机设备及存储介质 | |
CN115730603A (zh) | 基于人工智能的信息提取方法、装置、设备及存储介质 | |
CN116704528A (zh) | 票据识别核验方法、装置、计算机设备及存储介质 | |
CN115273110A (zh) | 基于TensorRT的文本识别模型部署方法、装置、设备及存储介质 | |
CN114637831A (zh) | 基于语义分析的数据查询方法及其相关设备 | |
CN114359928A (zh) | 一种电子***识别方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20220525 Address after: 518000 China Aviation Center 2901, No. 1018, Huafu Road, Huahang community, Huaqiang North Street, Futian District, Shenzhen, Guangdong Province Applicant after: Shenzhen Ping An medical and Health Technology Service Co.,Ltd. Address before: Room 12G, Area H, 666 Beijing East Road, Huangpu District, Shanghai 200001 Applicant before: PING AN MEDICAL AND HEALTHCARE MANAGEMENT Co.,Ltd. |