CN113850805B - 多文档检测方法、装置、电子设备及存储介质 - Google Patents

多文档检测方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN113850805B
CN113850805B CN202111433043.5A CN202111433043A CN113850805B CN 113850805 B CN113850805 B CN 113850805B CN 202111433043 A CN202111433043 A CN 202111433043A CN 113850805 B CN113850805 B CN 113850805B
Authority
CN
China
Prior art keywords
point
corner
corner point
image
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111433043.5A
Other languages
English (en)
Other versions
CN113850805A (zh
Inventor
张子浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Century TAL Education Technology Co Ltd
Original Assignee
Beijing Century TAL Education Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Century TAL Education Technology Co Ltd filed Critical Beijing Century TAL Education Technology Co Ltd
Priority to CN202111433043.5A priority Critical patent/CN113850805B/zh
Publication of CN113850805A publication Critical patent/CN113850805A/zh
Application granted granted Critical
Publication of CN113850805B publication Critical patent/CN113850805B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30176Document

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供一种多文档检测方法、装置、电子设备及存储介质,所述方法包括:获取包含至少一个文档的待检测图像,将待检测图像输入至预先训练的中心点和角点检测模型,以获取待检测图像的中心点预测图和角点预测图,接着,从中心点预测图中确定出至少一个中心点,以及从角点预测图中确定出多个角点,并将至少一个中心点中的每个中心点与多个角点进行匹配,以确定与每个中心点关联的目标角点,进而基于与每个中心点关联的目标角点,采用透视变换对待检测图像进行裁剪,得到至少一个文档中的每个文档对应的文档图像,由此,可以实现对图像中包含的至少一个文档进行检测,实现对图像中的多个文档进行拆分。

Description

多文档检测方法、装置、电子设备及存储介质
技术领域
本公开涉及深度学习技术领域,尤其涉及一种多文档检测方法、装置、电子设备及存储介质。
背景技术
随着计算机技术和人工智能技术的不断发展,人工智能技术已逐步应用在教育教学场景中,比如拍照搜题、智能批改、题目录入等。
在教育教学场景中,学生或教师在拍摄试卷、作业等的图像时,可能会对多张文档页面同时拍摄,使得一张图像中包含多张文档。然而,现有的文档检测技术,通常仅能检测出图像中的单页文档,而不支持多页文档检测,从而使得对包含多个文档的图像进行批改的准确率较低。
因此,如何将图像中的多个文档进行拆分成为亟待解决的问题。
发明内容
为了解决上述技术问题或者至少部分地解决上述技术问题,本公开实施例提供了一种多文档检测方法、装置、电子设备及存储介质。
根据本公开的一方面,提供了一种多文档检测方法,包括:
获取待检测图像,所述待检测图像中包含至少一个文档;
将所述待检测图像输入至预先训练的中心点和角点检测模型,以获取所述待检测图像的中心点预测图和角点预测图;
从所述中心点预测图中确定出至少一个中心点,以及,从所述角点预测图中确定出多个角点;
将所述至少一个中心点中的每个中心点与所述多个角点进行匹配,以确定与所述每个中心点关联的目标角点;
基于与所述每个中心点关联的目标角点,采用透视变换对所述待检测图像进行裁剪,得到所述至少一个文档中的每个文档对应的文档图像。
根据本公开的另一方面,提供了一种多文档检测装置,包括:
图像获取模块,用于获取待检测图像,所述待检测图像中包含至少一个文档;
预测图获取模块,用于将所述待检测图像输入至预先训练的中心点和角点检测模型,以获取所述待检测图像的中心点预测图和角点预测图;
确定模块,用于从所述中心点预测图中确定出至少一个中心点,以及,从所述角点预测图中确定出多个角点;
匹配模块,用于将所述至少一个中心点中的每个中心点与所述多个角点进行匹配,以确定与所述每个中心点关联的目标角点;
裁剪模块,用于基于与所述每个中心点关联的目标角点,采用透视变换对所述待检测图像进行裁剪,得到所述至少一个文档中的每个文档对应的文档图像。
根据本公开的另一方面,提供了一种电子设备,包括:
处理器;以及
存储程序的存储器,
其中,所述程序包括指令,所述指令在由所述处理器执行时使所述处理器执行根据前述一方面所述的多文档检测方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据前述一方面所述的多文档检测方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,其中,所述计算机程序在被计算机的处理器执行时用于使所述计算机执行根据前述一方面所述的多文档检测方法。
本公开实施例中提供的一个或多个技术方案,可以实现对图像中包含的至少一个文档进行检测,实现了对图像中的多个文档进行拆分。
附图说明
在下面结合附图对于示例性实施例的描述中,本公开的更多细节、特征和优点被公开,在附图中:
图1示出了根据本公开一示例性实施例的多文档检测方法的流程图;
图2示出了根据本公开另一示例性实施例的多文档检测方法的流程图;
图3示出了根据本公开一示例性实施例的中心点和角点检测模型的结构图;
图4示出了根据本公开一示例性实施例的待检测图像的示例图;
图5A示出了根据本公开一示例性实施例的中心点预测图的示例图;
图5B示出了根据本公开一示例性实施例的角点预测图的示例图;
图6示出了根据本公开一示例性实施例的后处理流程示意图;
图7示出了根据本公开一示例性实施例的文档图像的裁剪结果示意图;
图8示出了根据本公开一示例性实施例的多文档检测装置的示意性框图;
图9示出了能够用于实现本公开的实施例的示例性电子设备的结构框图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
以下参照附图描述本公开提供的多文档检测方法、装置、电子设备及存储介质。
文档检测技术在教育教学场景中发挥着重要作用。现有的文档检测技术,仅能支持单页文档检测,并不能支持多页文档检测,对于包含多个文档的图像,无法准确识别出图像中的各个文档,使得对包含多个文档的图像进行批改的准确率较低。
另外,现有的文档检测技术仅支持矩形框或倾斜矩形框的检测,但文档页面拍摄后,文档在图像中可能呈现的是梯形或非矩形四边形等不规则的形状,现在的文档检测技术无法准确地检测出图像中不规则形状的文档。
针对上述问题,本公开提供了一种多文档检测方法,具体方案为获取待检测图像的中心点和角点,根据中心点和角点裁剪出图像中的每个文档,通过中心点检测可以精确地得到图像中包含的文档的数量,通过角点检测可以得到图像中每个文档的各角点坐标,进而得到每个文档对应的图像,实现了对图像中的多个文档进行拆分。
图1示出了根据本公开一示例性实施例的多文档检测方法的流程图,该方法可以由多文档检测装置执行,其中该装置可以采用软件和/或硬件实现,一般可集成在电子设备中,所述电子设备可以是但不限于是智能手机、平板电脑、笔记本电脑、服务器、穿戴式设备等。如图1所示,该多文档检测方法包括:
步骤101,获取待检测图像,所述待检测图像中包含至少一个文档。
其中,待检测图像是指需要进行文档检测的图像。
示例性地,在学生对自己完成的作业进行自检的场景中,待检测图像可以是学生通过电子设备的摄像头,对至少一个文档页面进行拍摄后获得的图像。
示例性地,在教师对学生上交的纸质作业或试卷进行批改的场景中,待检测图像可以是教师通过电子设备的摄像头,对学生上交的纸质作业或试卷进行拍摄后获得的图像。
示例性地,在学生以照片的形式上交已完成的纸质作业的场景中,待检测图像可以是从电子设备的存储空间中获取的图像,电子设备的存储空间中的图像是由学生对纸质作业的至少一个文档页面进行拍摄后,上传至所述电子设备并由电子设备保存在存储空间中的。
步骤102,将所述待检测图像输入至预先训练的中心点和角点检测模型,以获取所述待检测图像的中心点预测图和角点预测图。
其中,中心点和角点检测模型是预先训练得到的,具体的训练过程将在后续实施例中进行详细说明,为避免重复,此处不再赘述。利用训练好的中心点和角点检测模型,能够获得图像中包含的每个文档的中心点预测图和角点预测图。
本公开实施例中,对于获取的待检测图像,可以将该待检测图像输入至预先训练好的中心点和角点检测模型中,由中心点和角点检测模型输出待检测图像对应的中心点预测图和角点预测图。
其中,中心点预测图中包含的是对待检测图像中至少一个文档的中心点的预测信息,角点预测图中包含的是对待检测图像中至少一个文档的角点的预测信息,预测信息可以包括但不限于中心点预测图和角点预测图中的各特征点的预测得分、各特征点的坐标值,等等。
能够理解的是,中心点预测图中包含多个特征点,预测得分较大的特征点可能是中心点;角点预测图中也包含多个特征点,预测得分较大的特征点可能是角点。
步骤103,从所述中心点预测图中确定出至少一个中心点,以及,从所述角点预测图中确定出多个角点。
本公开实施例中,获取了待检测图像的中心点预测图和角点预测图之后,可以从中心点预测图中确定出至少一个中心点,以及,从角点预测图中确定出多个角点。
示例性地,可以根据中心点预测图中各特征点的预测得分,从各特征点中筛选出预测得分最大的特征点作为确定的中心点,根据角点预测图中各特征点的预测得分,从各特征点中筛选出预测得分大于预设值的特征点作为角点。
步骤104,将所述至少一个中心点中的每个中心点与所述多个角点进行匹配,以确定与所述每个中心点关联的目标角点。
本公开实施例中,对于确定的每个中心点,可以将该中心点与确定的多个角点进行匹配,确定出与该中心点关联的目标角点。
示例性地,针对每个中心点,可以计算每个角点到该中心点的距离,从多个角点中选择出距离该中心点最近的四个角点,作为与该中心点关联的目标角点。
进一步地,为了提高确定的目标角点的准确性,在本公开的一种可选实施方式中,还可以对确定的目标角点进行校验。能够理解的是,确定的多个目标角点应当位于中心点的不同方向,如果与某个中心点关联的多个目标角点中,至少两个目标角点位于中心点的同一方向(比如左下方),则利用确定的目标角点无法准确地裁剪出文档图像,这种情况下,可以重新确定与该中心点关联的目标角点。
步骤105,基于与所述每个中心点关联的目标角点,采用透视变换对所述待检测图像进行裁剪,得到所述至少一个文档中的每个文档对应的文档图像。
本公开实施例中,确定了与每个中心点关联的目标角点之后,基于确定的目标角点,采用透视变换,可以从待检测图像中裁剪出至少一个文档中的每个文档对应的文档图像,得到至少一个文档图像,文档图像的数量与待检测图像中包含的文档的数量一致。
需要说明的是,采用透视变换进行图像裁剪是图像处理技术中较为成熟的技术,本公开对此不作详述。
本公开实施例的多文档检测方法,通过获取包含至少一个文档的待检测图像,将待检测图像输入至预先训练的中心点和角点检测模型,以获取待检测图像的中心点预测图和角点预测图,接着,从中心点预测图中确定出至少一个中心点,以及从角点预测图中确定出多个角点,并将至少一个中心点中的每个中心点与多个角点进行匹配,以确定与每个中心点关联的目标角点,进而基于与每个中心点关联的目标角点,采用透视变换对待检测图像进行裁剪,得到至少一个文档中的每个文档对应的文档图像。采用上述技术方案,通过中心点检测可以精确地得到待检测图像中包含的文档的数量,通过角点检测可以得到待检测图像中每个文档的各角点坐标,进而得到每个文档对应的文档图像,实现了对待检测图像中的多个文档进行拆分,有利于提高对包含多个文档的图像进行批改的准确率。
在本公开的一种可选实施方式中,所述从所述中心点预测图中确定出至少一个中心点,可以包括:
根据所述中心点预测图中每个第一特征点的第一预测得分,获取第一预测得分大于第一得分阈值的第一特征点作为候选中心点;
对所述候选中心点之间的距离小于第一距离阈值的候选中心点进行合并处理,得到所述中心点预测图中的至少一个中心点。
其中,第一得分阈值可以预先设定,比如,第一得分阈值可以设置为0.3、0.5等,本公开对此不作限制。
本公开实施例中,对于从中心点和角点检测模型获取的中心点预测图和角点预测图,为了便于区分,将中心点预测图中的每个特征点称为第一特征点,每个第一特征点对应的预测得分称为第一预测得分,相应地,将角点预测图中的每个特征点称为第二特征点,每个第二特征点对应的预测得分称为第二预测得分。
进而,在确定中心点时,可以将中心点预测图中的每个第一特征点对应的第一预测得分与预设的第一得分阈值进行比较,从所有第一特征点中筛选出第一预测得分大于第一得分阈值的第一特征点作为候选中心点。之后,对于确定的候选中心点,进行非极大值抑制(Non-Maximum Suppression,NMS)处理,计算各候选中心点之间的距离,并将距离小于预设的第一距离阈值的候选中心点进行合并处理,得到中心点预测图中的至少一个中心点。能够理解的是,得到的至少一个中心点的个数反映了待检测图像中包含的文档的数量。
其中,第一距离阈值可以预先设定,第一距离阈值可以指两个候选中心点之间相隔的第一特征点的数量,比如第一距离阈值可以设置为5,则如果两个候选中心点之间相隔的第一特征点的个数小于5个,则将这两个候选中心点进行合并处理。
示例性地,在对候选中心点进行合并处理时,可以将待合并的候选中心点的坐标进行均值合并,即根据每个待合并的候选中心点对应的横坐标和纵坐标求均值,分别计算横坐标均值和纵坐标均值,根据所得的横坐标均值和纵坐标均值确定一个新的点作为一个中心点。
本公开实施例中,通过根据中心点预测图中每个第一特征点的第一预测得分,获取第一预测得分大于第一得分阈值的第一特征点作为候选中心点,对候选中心点之间的距离小于第一距离阈值的候选中心点进行合并处理,得到中心点预测图中的至少一个中心点,由此,实现了对中心点预测图中的点进行过滤、合并处理来确定至少一个中心点,从而能够确定图像中包含的文档的页数。
通常,角点分布在中心点的不同方向,包括中心点的左上方、左下方、右上方和右下方,相应地,角点包括左上角点、左下角点、右上角点和右下角点。从而,在本公开的一种可选实施方式中,角点预测图包括左上角点预测图、左下角点预测图、右上角点预测图和右下角点预测图,相应地,所述从所述角点预测图中确定出多个角点,可以包括:
根据所述角点预测图中每个第二特征点的第二预测得分,获取第二预测得分大于第二得分阈值的第二特征点作为候选角点;
对所述候选角点之间的距离小于第二距离阈值的候选角点进行合并处理,得到所述角点预测图中的多个角点,所述多个角点包括所述左上角点预测图中的至少一个左上角点、所述左下角点预测图中的至少一个左下角点、所述右上角点预测图中的至少一个右上角点和所述右下角点预测图中的至少一个右下角点。
其中,第二得分阈值可以预先设定,比如,第二得分阈值可以设置为0.3、0.5等,本公开对此不作限制。
本公开实施例中,在确定角点时,可以针对每个角点预测图(即左上角点预测图、左下角点预测图、右上角点预测图和右下角点预测图中的每一个预测图),确定出各角点预测图中对应类型的角点,即从左上角点预测图中确定出左上角点,从左下角点预测图中确定出左下角点,从右上角点预测图中确定出右上角点,以及从右下角点预测图中确定出右下角点。在确定各角点预测图中对应类型的角点时,将角点预测图中的每个第二特征点对应的第二预测得分与预设的第二得分阈值进行比较,从所有第二特征点中筛选出第二预测得分大于第二得分阈值的第二特征点作为候选角点。之后,对于确定的候选角点,计算各候选角点之间的距离,并将距离小于预设的第二距离阈值的候选角点进行合并处理,得到各角点预测图中的至少一个角点。
其中,第二距离阈值可以预先设定,第二距离阈值可以指两个候选角点之间相隔的第二特征点的数量,比如第二距离阈值可以设置为5,则如果两个候选角点之间相隔的第二特征点的个数小于5个,则将这两个候选角点进行合并处理。
以从左上角点预测图中确定至少一个左上角点为例,将左上角点预测图中每个第二特征点的第二预测得分与预设的第二得分阈值进行比较,从左上角点预测图中的所有第二特征点中,筛选出第二预测得分大于第二得分阈值的第二特征点作为候选左上角点。之后,对各候选左上角点进行NMS处理,计算各候选左上角点之间的距离,并对距离小于预设的第二距离阈值的候选左上角点进行合并处理,得到左上角点预测图中的至少一个左上角点。同理,采用上述类似的处理方式,可以得到左下角点预测图中的至少一个左下角点、右上角点预测图中的至少一个右上角点和右下角点预测图中的至少一个右下角点。
示例性地,本公开实施例中,在对候选角点进行合并处理时,可以将待合并的候选角点的坐标进行均值合并,即根据每个待合并的候选角点对应的横坐标和纵坐标求均值,分别计算横坐标均值和纵坐标均值,根据所得的横坐标均值和纵坐标均值确定一个新的点作为一个角点,从而得到每个角点预测图中的角点数据。
本公开实施例中,通过根据角点预测图中每个第二特征点的第二预测得分,获取第二预测得分大于第二得分阈值的第二特征点作为候选角点,对候选角点之间的距离小于第二距离阈值的候选角点进行合并处理,得到角点预测图中的多个角点,由此,实现了对角点预测图中的点进行过滤、合并处理来确定多个角点,能够提高角点的准确度,有利于准确地拆分出文档图像。
在本公开的一种可选实施方式中,所述将所述至少一个中心点中的每个中心点与所述多个角点进行匹配,以确定与所述每个中心点关联的目标角点,可以包括:
计算所述至少一个中心点中的每个中心点,与所述多个角点中的每个角点之间的距离;
根据所述每个中心点与所述每个角点之间的距离,从所述多个角点中确定出与所述每个中心点关联的目标角点,所述目标角点包括目标左上角点、目标左下角点、目标右上角点和目标右下角点。
本公开实施例中,对于确定的每个中心点,可以计算该中心点与每个角点之间的距离,进而根据每个中心点与每个角点之间的距离,从多个角点中确定出与该中心点之间的距离最小的四个角点,作为与该中心点关联的目标左上角点、目标左下角点、目标右上角点和目标右下角点。
能够理解的是,当待检测图像中包含多个文档时,如果多个文档之间无重叠,则各文档的中心点到同一文档的各角点之间的距离最小,因此,通过计算每个中心点与每个角点之间的距离,将距离最小的四个角点确定为与中心点关联的目标角点,确定的目标角点即为与该中心点隶属于同一文档的角点。
在本公开的一种可选实施方式中,还可以将每个中心点分别与各角点预测图中对应类型的各角点进行匹配,从各角点预测图中确定出对应类型的目标角点。从而,所述根据所述每个中心点与所述每个角点之间的距离,从所述多个角点中确定出与所述每个中心点关联的目标角点,可以包括:
根据所述每个中心点与所述至少一个左上角点之间的距离,从所述至少一个左上角点中确定出与所述每个中心点距离最近的左上角点,作为与所述每个中心点关联的目标左上角点;
根据所述每个中心点与所述至少一个左下角点之间的距离,从所述至少一个左下角点中确定出与所述每个中心点距离最近的左下角点,作为与所述每个中心点关联的目标左下角点;
根据所述每个中心点与所述至少一个右上角点之间的距离,从所述至少一个右上角点中确定出与所述每个中心点距离最近的右上角点,作为与所述每个中心点关联的目标右上角点;以及
根据所述每个中心点与所述至少一个右下角点之间的距离,从所述至少一个右下角点中确定出与所述每个中心点距离最近的右下角点,作为与所述每个中心点关联的目标右下角点。
进一步地,在本公开的一种可选实施方式中,在与所述每个中心点距离最近的左上角点为多个的情况下,根据与所述每个中心点距离最近的左上角点相对于所述每个中心点的位置,从多个与所述每个中心点距离最近的左上角点中,确定出与所述每个中心点关联的目标左上角点。
举例而言,假设左上角点预测图中包含左上角点A和左上角点B,中心点O与左上角点A和左上角点B之间的距离相同,其中,左上角点A在中心点O的左侧,而左上角点B在中心点O的右侧,则根据左上角点在中心点的左侧的先验知识,可以确定左上角点A为与中心点O关联的目标左上角点。
类似地,在与所述每个中心点距离最近的左下角点为多个的情况下,根据与所述每个中心点距离最近的左下角点相对于所述每个中心点的位置,从多个与所述每个中心点距离最近的左下角点中,确定出与所述每个中心点关联的目标左下角点;在与所述每个中心点距离最近的右上角点为多个的情况下,根据与所述每个中心点距离最近的右上角点相对于所述每个中心点的位置,从多个与所述每个中心点距离最近的右上角点中,确定出与所述每个中心点关联的目标右上角点;在与所述每个中心点距离最近的右下角点为多个的情况下,根据与所述每个中心点距离最近的右下角点相对于所述每个中心点的位置,从多个与所述每个中心点距离最近的右下角点中,确定出与所述每个中心点关联的目标右下角点。
能够理解的是,各方向的角点与中心点的位置关系,可以根据各角点的坐标和中心点的坐标来判断。比如,假设待检测图像的左上角为坐标原点,水平方向为横向坐标,垂直方向为纵向坐标,则如果某个角点的横坐标大于中心点的横坐标,该角点的纵坐标小于中心角点的纵坐标,则可以确定该角点在该中心点的右侧上方位置。
本公开实施例中,通过在与每个中心点距离最近的左上角点为多个的情况下,根据与每个中心点距离最近的左上角点相对于每个中心点的位置,从多个与每个中心点距离最近的左上角点中,确定出与每个中心点关联的目标左上角点,由此,使得在根据最小距离无法唯一确定关联的目标左上角点时,能够进一步根据各左上角点相对于中心点的位置关系,最终确定目标左上角点,提高了方案的可行性。
进一步地,为了提高确定的目标角点的准确性,在本公开的一种可选实施方式中,还可以对确定的目标角点进行修正。具体地,对于某个中心点,若通过与该中心点之间的距离最小的方式确定的目标角点中,某个目标角点的横坐标或纵坐标,与同一侧目标角点的横坐标或纵坐标不同,则可以利用同一侧目标角点的坐标,对该目标角点的坐标进行修正,以提高文档拆分的准确性。
举例而言,假设确定的与某个中心点关联的目标角点的坐标分别为:左上角点(xmin,ymin)、右上角点(xmax,ymin)、左下角点(xmin,y)和右下角点(xmax,ymax),其中,ymin<y<ymax,可见,左下角点与右下角点并不在同一水平线上,若以此进行图像裁剪,则可能导致裁剪出的文档图像不完整。这种情况下,可以根据右下角点的坐标对左下角点的坐标进行修正,将左下角点的坐标修正为(xmin,ymax)。
图2示出了根据本公开另一示例性实施例的多文档检测方法的流程图,如图2所示,本公开实施例中的中心点和角点检测模型可以通过如下步骤训练得到:
步骤201,获取训练样本集,所述训练样本集包括样本图像和所述样本图像中文档的中心点标注数据和角点标注数据。
本公开实施例中,可以通过从网上公开的图片中获取或者通过线下收集的方式获取若干个包含至少一个文档的样本图像,获取的样本图像包括但不限于教育场景文档,并对获取的样本图像进行标注,标注出样本图像中每个文档对应的中心点标注数据和角点标注数据,得到标注好的多个样本图像构成训练样本集。
示例性地,在对样本图像进行标注时,选取样本图像中每个文档的中心点并赋值为1,其余点赋值为0,以及,选取样本图像中每个文档的角点并赋值为1,其余点赋值为0。能够理解的是,中心点标注数据和角点标注数据中,不仅包括每个点的赋值,还包括每个点对应的坐标。
可选地,由于不同的样本图像之间的尺寸存在差异,为便于模型训练,可以对收集的样本图像进行尺寸修正处理,将不同尺寸的样本图像均修正为统一的尺寸,比如,将样本图像的尺寸修正为统一的320*320*3。
步骤202,将所述样本图像输入待训练模型进行特征提取,获取与所述样本图像对应的输出特征图。
示例性地,可以采用轻量化的骨干网络(backbone)对输入的样本图像进行特征提取,得到样本图像对应的输出特征图。
步骤203,利用所述待训练模型中中心点预测网络的一个卷积核,对所述输出特征图进行卷积处理,得到中心点预测图。
步骤204,利用所述待训练模型中角点预测网络的多个卷积核,对所述输出特征图进行卷积处理,得到角点预测图。
本公开实施例中,待训练模型可以包括中心点预测网络和角点预测网络两个分支,其中,中心点预测网络包括一个卷积核,用来根据输出特征图预测得到中心点预测图,角点预测网络包括多个卷积核,用来根据输出特征图预测得到角点预测图。
步骤205,根据中心点预测图中特征点与所述中心点标注数据之间的差异,以及所述角点预测图中特征点与所述角点标注数据之间的差异,更新所述待训练模型的网络参数,直至所述待训练模型的损失函数值小于或等于预设值,得到所述中心点和角点检测模型。
其中,预设值可以预先设定,比如设置预设值为0.01、0.001等。
能够理解的是,模型的训练是个重复迭代的过程,通过不断地调整模型的网络参数进行训练,直到模型整体的损失函数值小于预设值,或者模型整体的损失函数值不再变化或变化幅度缓慢,模型收敛,得到训练好的模型。
本公开实施例中,得到中心点预测图和角点预测图之后,可以根据中心点预测图中特征点与中心点标注数据之间的差异,以及角点预测图中特征点与角点标注数据之间的差异,更新待训练模型的网络参数,直至待训练模型的损失函数值小于或等于预设值,得到训练好的中心点和角点检测模型。
示例性地,本公开实施例中,待训练模型的中心点预测网络和角点预测网络可以分别进行训练,两个网络分支可以采用相同的损失函数,比如,可以均采用Dice loss损失函数,Dice loss损失函数(记为L dice )如公式(1)所示。
Figure 803062DEST_PATH_IMAGE001
其中,X表示预测图(中心点预测图或角点预测图)中特征点的集合,Y表示标注数据(中心点标注数据或角点标注数据),|X|表示X中的元素的个数,|Y|表示Y中的元素的个数,|X∩Y|表示X和Y之间的交集的个数。
本公开实施例中,在每次迭代训练过程中,可以根据中心点预测图中特征点与中心点标注数据之间的差异,以及角点预测图中特征点与角点标注数据之间的差异,计算待训练模型中中心点预测网络和角点预测网络的损失函数值,并将计算得到的损失函数值与预设值进行比较,若损失函数值大于预设值,则更新待训练模型的网络参数,基于更新网络参数后的待训练模型重新获取中心点预测图和角点预测图,并根据新获取的中心点预测图和角点预测图再次计算待训练模型的损失函数值,如此迭代,直至损失函数值小于预设值,得到训练好的中心点和角点检测模型。
本公开实施例中,通过预先训练得到中心点和角点检测模型,为后续根据中心点和角点对图像中的至少一个文档进行拆分提供了条件。
图3示出了根据本公开一示例性实施例的中心点和角点检测模型的结构图,利用图3所示的中心点和角点检测模型,可以获取到图像的中心点预测图和角点预测图。如图3所示,中心点和角点检测模型输出的中心点预测图为80*80*1,输出的角点预测图为80*80*4,也就是说,角点预测图为4通道,分别为左上角点预测图、右上角点预测图、左下角点预测图和左下角点预测图。图4示出了根据本公开一示例性实施例的待检测图像的示例图,如图4所示,待检测图像中包含两个文档,将图4所示的待检测图像处理为320*320*3的尺寸后输入至图3所示的中心点和角点检测模型中,由中心点和角点检测模型的backbone网络对待检测图像进行特征提取,得到输出特征图,再将输出特征图分别进行两次卷积,其中,利用一个卷积核对输出特征图进行卷积处理,得到80*80*1的中心点预测图,如图5A所示;利用四个卷积核对输出特征图进行卷积处理,得到80*80*4的角点预测图,如图5B所示。之后,对中心点和角点预测模型输出的中心点预测图和角点预测图进行后处理,完成待检测图像中文档的拆分,得到至少一个文档图像。
图6示出了根据本公开一示例性实施例的后处理流程示意图,如图6所示,对于获取的中心点预测图,可以从中心点预测图中获取预测得分大于第一得分阈值(图6中以第一得分阈值为0.3为例)的点,并对这些点进行NMS处理,得到n个中心点的坐标,其中,n的值代表了待检测文档中包含的文档的个数。对于获取的角点预测图,从角点预测图中获取预测得分大于第二得分阈值(图6中以第二得分阈值也为0.3为例)的点,并对这些点进行NMS处理,得到每个通道的角点。其中,NMS处理时,将距离相近(比如点与点之间的距离小于预设的距离阈值,图6中以第一距离阈值和第二距离阈值均设置为5作为示例)的点进行均值合并,得到新的点作为中心点或角点。之后进行中心点和角点匹配,从每个通道的角点预测图中选取一个角点,即可得到左上角点、右上角点、左下角点和右下角点,从而得到每个文档对应的4个角点的坐标,进而根据各文档对应的4个角点,采用透视变换裁剪图像,得到每个文档对应的文档图像,裁剪结果如图7所示。采用本公开的方案,通过中心点检测可以精确得到图像中包含的文档的个数,并能够通过角点检测得到每个文档的4个角点坐标,进而裁剪出每个文档对应的图像,实现图像中多文档的拆分。
本公开示例性实施例还提供了一种多文档检测装置。图8示出了根据本公开一示例性实施例的多文档检测装置的示意性框图,如图8所示,该多文档检测装置80包括:图像获取模块801、预测图获取模块802、确定模块803、匹配模块804和裁剪模块805。
其中,图像获取模块801,用于获取待检测图像,所述待检测图像中包含至少一个文档;
预测图获取模块802,用于将所述待检测图像输入至预先训练的中心点和角点检测模型,以获取所述待检测图像的中心点预测图和角点预测图;
确定模块803,用于从所述中心点预测图中确定出至少一个中心点,以及,从所述角点预测图中确定出多个角点;
匹配模块804,用于将所述至少一个中心点中的每个中心点与所述多个角点进行匹配,以确定与所述每个中心点关联的目标角点;
裁剪模块805,用于基于与所述每个中心点关联的目标角点,采用透视变换对所述待检测图像进行裁剪,得到所述至少一个文档中的每个文档对应的文档图像。
可选地,所述确定模块803还可以用于:
根据所述中心点预测图中每个第一特征点的第一预测得分,获取第一预测得分大于第一得分阈值的第一特征点作为候选中心点;
对所述候选中心点之间的距离小于第一距离阈值的候选中心点进行合并处理,得到所述中心点预测图中的至少一个中心点。
可选地,所述角点预测图包括左上角点预测图、左下角点预测图、右上角点预测图和右下角点预测图;所述确定模块803还可以用于:
根据所述角点预测图中每个第二特征点的第二预测得分,获取第二预测得分大于第二得分阈值的第二特征点作为候选角点;
对所述候选角点之间的距离小于第二距离阈值的候选角点进行合并处理,得到所述角点预测图中的多个角点,所述多个角点包括所述左上角点预测图中的至少一个左上角点、所述左下角点预测图中的至少一个左下角点、所述右上角点预测图中的至少一个右上角点和所述右下角点预测图中的至少一个右下角点。
可选地,所述匹配模块804,可以包括:
距离计算单元,用于计算所述至少一个中心点中的每个中心点,与所述多个角点中的每个角点之间的距离;
匹配单元,用于根据所述每个中心点与所述每个角点之间的距离,从所述多个角点中确定出与所述每个中心点关联的目标角点,所述目标角点包括目标左上角点、目标左下角点、目标右上角点和目标右下角点。
可选地,所述匹配单元,还可以用于:
根据所述每个中心点与所述至少一个左上角点之间的距离,从所述至少一个左上角点中确定出与所述每个中心点距离最近的左上角点,作为与所述每个中心点关联的目标左上角点;
根据所述每个中心点与所述至少一个左下角点之间的距离,从所述至少一个左下角点中确定出与所述每个中心点距离最近的左下角点,作为与所述每个中心点关联的目标左下角点;
根据所述每个中心点与所述至少一个右上角点之间的距离,从所述至少一个右上角点中确定出与所述每个中心点距离最近的右上角点,作为与所述每个中心点关联的目标右上角点;以及
根据所述每个中心点与所述至少一个右下角点之间的距离,从所述至少一个右下角点中确定出与所述每个中心点距离最近的右下角点,作为与所述每个中心点关联的目标右下角点。
可选地,所述装置还包括:
筛选模块,用于在与所述每个中心点距离最近的左上角点为多个的情况下,根据与所述每个中心点距离最近的左上角点相对于所述每个中心点的位置,从多个与所述每个中心点距离最近的左上角点中,确定出与所述每个中心点关联的目标左上角点。
可选地,所述装置还包括:模型训练模块;所述模型训练模块用于:
获取训练样本集,所述训练样本集包括样本图像和所述样本图像中文档的中心点标注数据和角点标注数据;
将所述样本图像输入待训练模型进行特征提取,获取与所述样本图像对应的输出特征图;
利用所述待训练模型中中心点预测网络的一个卷积核,对所述输出特征图进行卷积处理,得到中心点预测图;
利用所述待训练模型中角点预测网络的多个卷积核,对所述输出特征图进行卷积处理,得到角点预测图;
根据中心点预测图中特征点与所述中心点标注数据之间的差异,以及所述角点预测图中特征点与所述角点标注数据之间的差异,更新所述待训练模型的网络参数,直至所述待训练模型的损失函数值小于或等于预设值,得到所述中心点和角点检测模型。
本公开实施例所提供的多文档检测装置,可执行本公开实施例所提供的任意可应用于服务器等电子设备的多文档检测方法,具备执行方法相应的功能模块和有益效果。本公开装置实施例中未详尽描述的内容可以参考本公开任意方法实施例中的描述。
本公开示例性实施例还提供一种电子设备,包括:处理器,以及存储程序的存储器,所述处理器为至少一个,所述存储器与至少一个处理器通信连接。所述程序包括指令,所述指令在由所述处理器执行时使所述处理器执行根据本公开实施例的多文档检测方法。
本公开示例性实施例还提供一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令在被计算机的处理器执行时用于使所述计算机执行根据本公开实施例的多文档检测方法。
本公开示例性实施例还提供一种计算机程序产品,包括计算机程序,其中,所述计算机程序在被计算机的处理器执行时用于使所述计算机执行根据本公开实施例的多文档检测方法。
参考图9,现将描述可以作为本公开的服务器或客户端的电子设备1100的结构框图,其是可以应用于本公开的各方面的硬件设备的示例。电子设备旨在表示各种形式的数字电子的计算机设备,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图9所示,电子设备1100包括计算单元1101,其可以根据存储在只读存储器(ROM)1102中的计算机程序或者从存储单元1108加载到随机访问存储器(RAM)1103中的计算机程序,来执行各种适当的动作和处理。在RAM1103中,还可存储设备1100操作所需的各种程序和数据。计算单元1101、ROM1102以及RAM1103通过总线1104彼此相连。输入/输出(I/O)接口1105也连接至总线1104。
电子设备1100中的多个部件连接至I/O接口1105,包括:输入单元1106、输出单元1107、存储单元1108以及通信单元1109。输入单元1106可以是能向电子设备1100输入信息的任何类型的设备,输入单元1106可以接收输入的数字或字符信息,以及产生与电子设备的用户设置和/或功能控制有关的键信号输入。输出单元1107可以是能呈现信息的任何类型的设备,并且可以包括但不限于显示器、扬声器、视频/音频输出终端、振动器和/或打印机。存储单元1104可以包括但不限于磁盘、光盘。通信单元1109允许电子设备1100通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据,并且可以包括但不限于调制解调器、网卡、红外通信设备、无线通信收发机和/或芯片组,例如蓝牙TM设备、WiFi设备、WiMax设备、蜂窝通信设备和/或类似物。
计算单元1101可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1101的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1101执行上文所描述的各个方法和处理。例如,在一些实施例中,多文档检测方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1108。在一些实施例中,计算机程序的部分或者全部可以经由ROM1102和/或通信单元1109而被载入和/或安装到电子设备1100上。在一些实施例中,计算单元1101可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行多文档检测方法。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
如本公开使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。

Claims (10)

1.一种多文档检测方法,所述方法包括:
获取待检测图像,所述待检测图像中包含至少一个文档;
将所述待检测图像输入至预先训练的中心点和角点检测模型,以获取所述待检测图像的中心点预测图和角点预测图;
从所述中心点预测图中确定出至少一个中心点,以及,从所述角点预测图中确定出多个角点;
将所述至少一个中心点中的每个中心点与所述多个角点进行匹配,以确定与所述每个中心点关联的目标角点,其中,通过计算所述每个中心点与每个角点之间的距离,将与中心点距离最小的四个角点确定为与所述中心点关联的目标角点;
基于与所述每个中心点关联的目标角点,采用透视变换对所述待检测图像进行裁剪,得到所述至少一个文档中的每个文档对应的文档图像。
2.根据权利要求1所述的多文档检测方法,其中,所述从所述中心点预测图中确定出至少一个中心点,包括:
根据所述中心点预测图中每个第一特征点的第一预测得分,获取第一预测得分大于第一得分阈值的第一特征点作为候选中心点;
对所述候选中心点之间的距离小于第一距离阈值的候选中心点进行合并处理,得到所述中心点预测图中的至少一个中心点。
3.根据权利要求1所述的多文档检测方法,其中,所述角点预测图包括左上角点预测图、左下角点预测图、右上角点预测图和右下角点预测图;
相应地,所述从所述角点预测图中确定出多个角点,包括:
根据所述角点预测图中每个第二特征点的第二预测得分,获取第二预测得分大于第二得分阈值的第二特征点作为候选角点;
对所述候选角点之间的距离小于第二距离阈值的候选角点进行合并处理,得到所述角点预测图中的多个角点,所述多个角点包括所述左上角点预测图中的至少一个左上角点、所述左下角点预测图中的至少一个左下角点、所述右上角点预测图中的至少一个右上角点和所述右下角点预测图中的至少一个右下角点。
4.根据权利要求3所述的多文档检测方法,其中,所述目标角点包括目标左上角点、目标左下角点、目标右上角点和目标右下角点。
5.根据权利要求4所述的多文档检测方法,其中,所述将所述至少一个中心点中的每个中心点与所述多个角点进行匹配,以确定与所述每个中心点关联的目标角点,包括:
根据所述每个中心点与所述至少一个左上角点之间的距离,从所述至少一个左上角点中确定出与所述每个中心点距离最近的左上角点,作为与所述每个中心点关联的目标左上角点;
根据所述每个中心点与所述至少一个左下角点之间的距离,从所述至少一个左下角点中确定出与所述每个中心点距离最近的左下角点,作为与所述每个中心点关联的目标左下角点;
根据所述每个中心点与所述至少一个右上角点之间的距离,从所述至少一个右上角点中确定出与所述每个中心点距离最近的右上角点,作为与所述每个中心点关联的目标右上角点;以及
根据所述每个中心点与所述至少一个右下角点之间的距离,从所述至少一个右下角点中确定出与所述每个中心点距离最近的右下角点,作为与所述每个中心点关联的目标右下角点。
6.根据权利要求5所述的多文档检测方法,其中,所述方法还包括:
在与所述每个中心点距离最近的左上角点为多个的情况下,根据与所述每个中心点距离最近的左上角点相对于所述每个中心点的位置,从多个与所述每个中心点距离最近的左上角点中,确定出与所述每个中心点关联的目标左上角点。
7.根据权利要求1-6任一项所述的多文档检测方法,其中,所述中心点和角点检测模型通过如下步骤训练得到:
获取训练样本集,所述训练样本集包括样本图像和所述样本图像中文档的中心点标注数据和角点标注数据;
将所述样本图像输入待训练模型进行特征提取,获取与所述样本图像对应的输出特征图;
利用所述待训练模型中中心点预测网络的一个卷积核,对所述输出特征图进行卷积处理,得到中心点预测图;
利用所述待训练模型中角点预测网络的多个卷积核,对所述输出特征图进行卷积处理,得到角点预测图;
根据中心点预测图中特征点与所述中心点标注数据之间的差异,以及所述角点预测图中特征点与所述角点标注数据之间的差异,更新所述待训练模型的网络参数,直至所述待训练模型的损失函数值小于或等于预设值,得到所述中心点和角点检测模型。
8.一种多文档检测装置,包括:
图像获取模块,用于获取待检测图像,所述待检测图像中包含至少一个文档;
预测图获取模块,用于将所述待检测图像输入至预先训练的中心点和角点检测模型,以获取所述待检测图像的中心点预测图和角点预测图;
确定模块,用于从所述中心点预测图中确定出至少一个中心点,以及,从所述角点预测图中确定出多个角点;
匹配模块,用于将所述至少一个中心点中的每个中心点与所述多个角点进行匹配,以确定与所述每个中心点关联的目标角点,其中,通过计算所述每个中心点与每个角点之间的距离,将与中心点距离最小的四个角点确定为与所述中心点关联的目标角点;
裁剪模块,用于基于与所述每个中心点关联的目标角点,采用透视变换对所述待检测图像进行裁剪,得到所述至少一个文档中的每个文档对应的文档图像。
9.一种电子设备,包括:
处理器;以及
存储程序的存储器,
其中,所述程序包括指令,所述指令在由所述处理器执行时使所述处理器执行根据权利要求1-7中任一项所述的多文档检测方法。
10.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-7中任一项所述的多文档检测方法。
CN202111433043.5A 2021-11-29 2021-11-29 多文档检测方法、装置、电子设备及存储介质 Active CN113850805B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111433043.5A CN113850805B (zh) 2021-11-29 2021-11-29 多文档检测方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111433043.5A CN113850805B (zh) 2021-11-29 2021-11-29 多文档检测方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN113850805A CN113850805A (zh) 2021-12-28
CN113850805B true CN113850805B (zh) 2022-02-22

Family

ID=78982224

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111433043.5A Active CN113850805B (zh) 2021-11-29 2021-11-29 多文档检测方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN113850805B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114387605A (zh) * 2022-01-12 2022-04-22 北京百度网讯科技有限公司 文本检测方法、装置、电子设备以及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109871844A (zh) * 2019-01-09 2019-06-11 东南大学 一种拍摄小票图像文本矫正和提取方法
CN111145305A (zh) * 2019-12-04 2020-05-12 宁波华高信息科技有限公司 一种文档图像处理方法
CN111523553A (zh) * 2020-04-03 2020-08-11 中国计量大学 一种基于相似度矩阵的中心点网络多目标检测方法
CN112132054A (zh) * 2020-09-24 2020-12-25 重庆邮电大学 一种基于深度学习的文档定位和分割方法
US20210256680A1 (en) * 2020-02-14 2021-08-19 Huawei Technologies Co., Ltd. Target Detection Method, Training Method, Electronic Device, and Computer-Readable Medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113313083B (zh) * 2021-07-28 2021-12-03 北京世纪好未来教育科技有限公司 文本检测方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109871844A (zh) * 2019-01-09 2019-06-11 东南大学 一种拍摄小票图像文本矫正和提取方法
CN111145305A (zh) * 2019-12-04 2020-05-12 宁波华高信息科技有限公司 一种文档图像处理方法
US20210256680A1 (en) * 2020-02-14 2021-08-19 Huawei Technologies Co., Ltd. Target Detection Method, Training Method, Electronic Device, and Computer-Readable Medium
CN111523553A (zh) * 2020-04-03 2020-08-11 中国计量大学 一种基于相似度矩阵的中心点网络多目标检测方法
CN112132054A (zh) * 2020-09-24 2020-12-25 重庆邮电大学 一种基于深度学习的文档定位和分割方法

Also Published As

Publication number Publication date
CN113850805A (zh) 2021-12-28

Similar Documents

Publication Publication Date Title
US11551377B2 (en) Eye gaze tracking using neural networks
US11164323B2 (en) Method for obtaining image tracking points and device and storage medium thereof
KR102399508B1 (ko) 레이아웃 분석 방법, 판독 보조 장치, 회로, 및 매체
US10317777B2 (en) Automatic zooming method and apparatus
CN111582085A (zh) 单据拍摄图像识别方法及装置
CN113850238B (zh) 文档检测方法、装置、电子设备及存储介质
EP3998576A2 (en) Image stitching method and apparatus, device, and medium
EP3182365B1 (en) Writing board detection and correction
CN109598185B (zh) 图像识别翻译方法、装置、设备及可读存储介质
CN113313083B (zh) 文本检测方法及装置
CN114155546A (zh) 一种图像矫正方法、装置、电子设备和存储介质
CN110827301B (zh) 用于处理图像的方法和装置
CN111612004A (zh) 一种基于语义内容的图像裁剪方法及装置
CN113781356A (zh) 图像去噪模型的训练方法、图像去噪方法、装置及设备
CN113850805B (zh) 多文档检测方法、装置、电子设备及存储介质
CN113850239B (zh) 多文档检测方法、装置、电子设备及存储介质
CN113516697B (zh) 图像配准的方法、装置、电子设备及计算机可读存储介质
CN113255629B (zh) 文档处理方法、装置、电子设备及计算机可读存储介质
CN108304840B (zh) 一种图像数据处理方法以及装置
CN115273057A (zh) 文本识别方法、装置和听写批改方法、装置及电子设备
CN113011409A (zh) 一种图像识别方法、装置、电子设备及存储介质
CN115063822A (zh) 文档检测方法、装置、电子设备及存储介质
CN113657311B (zh) 识别区域排序方法、***、电子设备及存储介质
CN116912849A (zh) 文档恢复方法、装置、电子设备及存储介质
CN116777734A (zh) 背景渗透图像的生成方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant