CN110941989A - 图像校验、视频校验方法、装置、设备及存储介质 - Google Patents
图像校验、视频校验方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN110941989A CN110941989A CN201910996351.5A CN201910996351A CN110941989A CN 110941989 A CN110941989 A CN 110941989A CN 201910996351 A CN201910996351 A CN 201910996351A CN 110941989 A CN110941989 A CN 110941989A
- Authority
- CN
- China
- Prior art keywords
- image
- target
- feature point
- point
- local
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 81
- 238000012795 verification Methods 0.000 title claims description 58
- 238000013507 mapping Methods 0.000 claims abstract description 103
- 239000011159 matrix material Substances 0.000 claims description 35
- 230000009466 transformation Effects 0.000 claims description 23
- 230000015654 memory Effects 0.000 claims description 20
- 238000000605 extraction Methods 0.000 claims description 19
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000011426 transformation method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0021—Image watermarking
- G06T1/0028—Adaptive watermarking, e.g. Human Visual System [HVS]-based watermarking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/48—Matching video sequences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2201/00—General purpose image data processing
- G06T2201/005—Image watermarking
- G06T2201/0201—Image watermarking whereby only tamper or origin are detected and no embedding takes place
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Quality & Reliability (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本公开是关于一种图像校验、视频校验方法、装置、设备及存储介质,该图像校验方法包括:获取源图像和待检测图像的多个局部特征点;根据多个局部特征点,得到源图像和待检测图像中满足目标匹配条件的目标局部特征点对;对每对目标局部特征点对,基于目标局部特征点对中第一特征点和第二特征点在对应图像中的坐标,将第一特征点映射至第二特征点所在图像,得到第一特征点的映射点;在第二特征点所在图像中,确定第二特征点与映射点之间的距离;获取参考局部特征点对的数量,参考局部特征点对为距离小于目标距离阈值的目标局部特征点对;当参考局部特征点对的数量大于目标数量时,确定待检测图像为对源图像进行复制得到的图像。
Description
技术领域
本公开涉及图像检测领域,尤其涉及一种图像校验、视频校验方法、装置、设备及存储介质。
背景技术
随着多媒体技术的快速发展,互联网中的图像越来越多。现有互联网中的图像几乎可以在未授权的情况下随意被复制,再经过裁剪、添加文字、滤镜等编辑处理后在互联网中进行传播。相关技术中,为了能对图像进行有效的保护,可以对图像进行校验,该校验过程可以包括:先分别提取待检测图像与源图像所包含的局部特征,再通过二者所包含的相同局部特征的数量,来确定待检测图像是否为基于源图像进行复制、编辑等处理后得到的图像。
但是基于上述方法进行校验时,对于与源图像具有相同的局部特征的任何图像,均会被确定为问题图像,然而,有一些图像虽然与源图像具有相同局部特征,然而实际上是拍摄角度不同的图像,就会很容易造成误判,也即是,上述的校验方法,校验准确性较低。
发明内容
本公开提供一种图像校验、视频校验方法、装置、设备及存储介质,能够克服相关技术中的图像校验的准确性低的问题。
根据本公开实施例的第一方面,提供一种图像校验方法,所述方法包括:获取源图像和待检测图像的多个局部特征点;根据所述多个局部特征点,得到所述源图像和所述待检测图像中满足目标匹配条件的目标局部特征点对,每对目标局部特征点对中包括一个所述源图像中的特征点和一个所述待检测图像中的特征点;对每对所述目标局部特征点对,基于所述目标局部特征点对中第一特征点和第二特征点在对应图像中的坐标,将所述第一特征点映射至所述第二特征点所在图像,得到所述第一特征点的映射点;在所述第二特征点所在图像中,确定所述第二特征点与所述映射点之间的距离;获取参考局部特征点对的数量,所述参考局部特征点对为所述距离小于目标距离阈值的所述目标局部特征点对;当所述参考局部特征点对的数量大于目标数量时,确定所述待检测图像为对所述源图像进行复制得到的图像
可选地,所述根据所述多个局部特征点,得到所述源图像和所述待检测图像中满足目标匹配条件的目标局部特征点对,包括:对任一局部特征点,确定所述局部特征点与多个参考特征点的距离,所述多个参考特征点为与所述局部特征点不在同一图像中的局部特征点;获取与所述局部特征点的最近邻参考特征点之间的第一距离,以及与所述局部特征点的次近邻参考特征点之间的第二距离;当所述第一距离与所述第二距离的比值小于目标比值时,将所述第一距离对应的参考特征点与所述局部特征点作为一对所述目标局部特征点对。
可选地,所述对每对所述目标局部特征点对,基于所述目标局部特征点对中第一特征点和第二特征点在对应图像中的坐标,将所述第一特征点映射至所述第二特征点所在图像,得到所述第一特征点的映射点,包括:根据每对所述目标局部特征点对中第一特征点和第二特征点在对应图像中的坐标,确定刚体变换矩阵;根据所述刚体变换矩阵,得到用于确定所述映射点的单应性矩阵;对任一所述目标局部特征点对,基于所述单应性矩阵,将所述第一特征点映射至所述第二特征点所在图像,得到所述第一特征点的映射点。
可选地,所述获取参考局部特征点对的数量,包括:基于目标滑动窗口,在所述源图像或待检测图像中,对局部特征点进行搜索;将位于所述目标滑动窗口内的局部特征点对应的所述目标局部特征点对记为一对参考局部特征点对,得到所述参考局部特征点对的数量。
根据本公开实施例的第二方面,提供一种视频校验方法,所述方法包括:获取源视频和待检测视频之间的多个匹配图像对;获取每对所述匹配图像对中的多个局部特征点;根据所述多个局部特征点,得到所述匹配图像对中满足目标匹配条件的目标局部特征点对;对每对所述目标局部特征点对,基于所述目标局部特征点对中第一特征点和第二特征点在对应图像中的坐标,将所述第一特征点映射至所述第二特征点所在图像,得到所述第一特征点的映射点;在所述第二特征点所在图像,确定所述第二特征点与所述映射点之间的距离;获取参考局部特征点对的数量,所述参考局部特征点对为所述距离小于目标距离阈值的所述目标局部特征点对;当所述参考局部特征点对的数量大于目标数量时,将所述匹配图像对作为目标匹配图像对;根据所述目标匹配图像对的数量与所述待检测视频的图像数,确定所述待检测视频与所述源视频的重复率;当所述重复率大于目标值时,确定所述待检测视频为对所述源视频进行复制得到的视频。
可选地,所述获取源视频和待检测视频之间的多个匹配图像对,包括:获取所述源视频和所述待检测视频中的目标数量图像的图像特征;在所述目标数量图像中,根据所述图像特征,确定所述源视频中任一图像与所述待检测视频中每一个图像的相似度,将满足相似度要求的两个图像作为一对所述匹配图像对。
可选地,所述获取所述源视频和所述待检测视频中的目标数量图像的图像特征之前,所述方法还包括:基于图像特征提取模型,提取所述源视频和所述待检测视频中的每一个图像的图像特征;存储所述每一个图像的图像特征。
可选地,所述图像特征包括维度小于目标维度值的全局图像特征。
根据本公开实施例的第三方面,提供一种图像校验装置,所述装置包括:局部特征点获取单元,被配置为执行获取源图像和待检测图像的多个局部特征点;目标局部特征点对获取单元,被配置为执行根据所述多个局部特征点,得到所述源图像和所述待检测图像中满足目标匹配条件的目标局部特征点对,每对目标局部特征点对中包括一个所述源图像中的特征点和一个所述待检测图像中的特征点;映射点获取单元,被配置为执行对每对所述目标局部特征点对,基于所述目标局部特征点对中第一特征点和第二特征点在对应图像中的坐标,将所述第一特征点映射至所述第二特征点所在图像,得到所述第一特征点的映射点;距离确定单元,被配置为执行在所述第二特征点所在图像中,确定所述第二特征点与所述映射点之间的距离;数量获取单元,被配置为执行获取参考局部特征点对的数量,所述参考局部特征点对为所述距离小于目标距离阈值的所述目标局部特征点对;图像确定单元,被配置为执行当所述参考局部特征点对的数量大于目标数量时,确定所述待检测图像为对所述源图像进行复制得到的图像。
可选地,所述目标局部特征点对获取单元,被配置为执行对任一局部特征点,确定所述局部特征点与多个参考特征点的距离,所述多个参考特征点为与所述局部特征点不在同一图像中的局部特征点;获取与所述局部特征点的最近邻参考特征点之间的第一距离,以及与所述局部特征点的次近邻参考特征点之间的第二距离;当所述第一距离与所述第二距离的比值小于目标比值时,将所述第一距离对应的参考特征点与所述局部特征点作为一对所述目标局部特征点对。
可选地,所述映射点获取单元,被配置为执行根据每对所述目标局部特征点对中第一特征点和第二特征点在对应图像中的坐标,确定刚体变换矩阵;根据所述刚体变换矩阵,得到用于确定所述映射点的单应性矩阵;对任一所述目标局部特征点对,基于所述单应性矩阵,将所述第一特征点映射至所述第二特征点所在图像,得到所述第一特征点的映射点。
可选地,所述数量获取单元,被配置为执行基于目标滑动窗口,在所述源图像或待检测图像中,对局部特征点进行搜索;将位于所述目标滑动窗口内的局部特征点对应的所述目标局部特征点对记为一对参考局部特征点对,得到所述参考局部特征点对的数量。
根据本公开实施例的第四方面,提供一种视频校验装置,所述装置包括:匹配图像对获取单元,被配置为执行获取源视频和待检测视频之间的多个匹配图像对;局部特征点获取单元,被配置为执行获取每对所述匹配图像对中的多个局部特征点;目标局部特征点对获取单元,被配置为执行根据所述多个局部特征点,得到所述匹配图像对中满足目标匹配条件的目标局部特征点对;映射点获取单元,被配置为执行对每对所述目标局部特征点对,基于所述目标局部特征点对中第一特征点和第二特征点在对应图像中的坐标,将所述第一特征点映射至所述第二特征点所在图像,得到所述第一特征点的映射点;距离确定单元,被配置为执行在所述第二特征点所在图像,确定所述第二特征点与所述映射点之间的距离;数量获取单元,被配置为执行获取参考局部特征点对的数量,所述参考局部特征点对为所述距离小于目标距离阈值的所述目标局部特征点对;目标匹配图像对确定单元,被配置为执行当所述参考局部特征点对的数量大于目标数量时,将所述匹配图像对作为目标匹配图像对;重复率确定单元,被配置为执行根据所述目标匹配图像对的数量与所述待检测视频的图像数,确定所述待检测视频与所述源视频的重复率;视频确定单元,被配置为执行当所述重复率大于目标值时,确定所述待检测视频为对所述源视频进行复制得到的视频。
可选地,所述匹配图像对获取单元,被配置为执行获取所述源视频和所述待检测视频中的目标数量图像的图像特征;在所述目标数量图像中,根据所述图像特征,确定所述源视频中任一图像与所述待检测视频中每一个图像的相似度,将满足相似度要求的两个图像作为一对所述匹配图像对。
可选地,所述匹配图像对获取单元,还被配置为执行基于图像特征提取模型,提取所述源视频和所述待检测视频中的每一个图像的图像特征;存储所述每一个图像的图像特征。
可选地,所述图像特征包括维度小于目标维度值的全局图像特征。
根据本公开实施例的第五方面,提供一种电子设备,包括:处理器;用于存储所述处理器可执行指令的一个或多个存储器;其中,所述处理器被配置为执行第一方面或第一方面的任一种可能的实施方式中的方法,或者第二方面或第二方面的任一种可能的实施方式中的方法。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,包括:当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行第一方面或第一方面的任一种可能的实施方式中的方法,或者第二方面或第二方面的任一种可能的实施方式中的方法。
根据本公开实施例的第五方面,提供了一种计算机程序,所述计算机程序包括:计算机程序代码,当所述计算机程序代码被计算机运行时,使得所述计算机执行上述各方面中的方法。
本公开的实施例提供的技术方案至少可以包括以下有益效果:
通过对源图像和待检测图像的多个局部特征点匹配得到的目标局部特征点对,基于目标局部特征点对中第一特征点和第二特征点在对应图像中的坐标,将第一特征点映射至第二特征点所在图像,得到第一特征点的映射点,在第二特征点所在图像中,确定第二特征点与映射点之间的距离,获取参考局部特征点对的数量,当参考局部特征点对的数量大于目标数量时,确定待检测图像为对源图像进行复制得到的图像。对第一特征点通过映射变换,得到与第二特征点所在图像处于同一角度下的映射点,继而通过对第二特征点与映射点之间的距离的判定,来对源图像和待检测图像进行拍摄角度差异判定,避免将与源图像拍摄角度不同的待检测图像误判为问题图像,提高了对待检测图像校验结果的准确性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
图1是根据一示例性实施例示出的一种图像校验方法的流程图;
图2是根据一示例性实施例示出的一种图像校验方法的应用场景示意图;
图3是根据一示例性实施例示出的一种图像校验方法的应用场景示意图;
图4是根据一示例性实施例示出的一种视频校验方法的流程图;
图5是根据一示例性实施例示出的一种视频校验方法的应用场景示意图;
图6是根据一示例性实施例示出的一种视频校验方法的应用场景示意图;
图7是根据一示例性实施例示出的一种图像校验装置的框图;
图8是根据一示例性实施例示出的一种视频校验装置的框图;
图9是根据一示例性实施例示出的一种电子设备的框图。
具体实施方式
为了使本领域普通人员更好地理解本公开的技术方案,下面将结合附图,对本公开实施例中的技术方案进行清楚、完成地描述。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
随着多媒体技术的快速发展,互联网中的图像越来越多。现有互联网中的图像几乎可以在未授权的情况下随意被复制,再经过裁剪、添加文字、滤镜等编辑处理后在互联网中进行传播。相关技术中,为了能对图像进行有效的保护,可以对图像进行校验,该校验过程可以包括:先分别提取待检测图像与源图像所包含的局部特征,再通过二者所包含的相同局部特征的数量,来确定待检测图像是否为基于源图像进行复制、编辑等处理后得到的图像。
但是基于上述方法进行校验时,对于与源图像具有相同的局部特征的任何图像,均会被确定为问题图像,然而,有一些图像虽然与源图像具有相同局部特征,然而实际上是拍摄角度不同的图像,就会很容易造成误判,也即是,上述的校验方法,校验准确性较低。为了解决技术问题,本申请实施例提供了一种图像校验方法。
图1是根据一示例性实施例示出的一种图像校验方法的流程图,该图像校验方法可应用于电子设备,如终端或服务器中,本申请实施例以终端进行说明。如图1所示,包括以下步骤。
在步骤101中,获取源图像和待检测图像的多个局部特征点。
示例性地,源图像可以是任一正版图像,待检测图像可以是任一图像,例如,该待检测图像可以是通过在互联网中输入源图像对应的关键字得到的多个图像中的任一图像。本申请实施例对获取待检测图像的方式不作限定。源图像和待检测图像的多个局部特征点可以采用ORB(Oriented Fast and Rotated Brief,定向的FAST检测和旋转的BRIEF描述子)局部特征点提取算法、SIFT(Scale Invariant Feature Transform,尺度不变特征转换)局部特征点提取算法或者SURF(Speed Up Robust Features,具有加速鲁棒性的特征提取)局部特征点提取算法提取得到。由于ORB局部特征提取算法融合了具有高效计算速度的FAST(Fast from Accelerated Segment Test,角点检测方法)特征点检测方法,故本申请实施例可以采用ORB局部特征提取算法,使得提取局部特征点的速率更快。同时该ORB局部特征点提取算法采用了BRIEF(Binary Robust Independent Elementary Features,二元鲁棒独立初级特征)局部特征点描述子来形成局部特征点的图像特征,由于BRIEF局部特征描述子采用二进制码串作为描述子,缩短了形成局部特征点的图像特征的时间,同时也降低了局部特征点的图像特征对存储空间的占用率。
在步骤102中,根据多个局部特征点,得到源图像和待检测图像中满足目标匹配条件的目标局部特征点对,每对目标局部特征点对中包括一个所述源图像中的特征点和一个所述待检测图像中的特征点。
示例性地,当得到源图像和待检测图像的多个局部特征点后,可以对两个图像间多个局部特征点的图像特征进行匹配,得到目标局部特征点对。基于局部特征点的图像特征进行匹配的方法可以是基于距离函数,对任意两个局部特征点对应的图像特征进行相似度计算。该距离函数可以是曼哈顿距离(Manhattan Distance)函数、加权欧式距离函数(Weighted Euclidean Distance)函数等。本申请实施例对该距离函数不作限定,本领域技术人员可以根据实际使用需要确定。该目标匹配条件可以是将最大相似度对应的两个局部特征点作为目标局部特征点对,或者是将相似度处于某一固定相似度区间内的最大相似度对应的两个局部特征点作为目标局部特征点对。本申请实施例对该目标匹配条件不作限定,本领域技术人员可以根据实际使用需要确定。
在步骤103中,对每对目标局部特征点对,基于目标局部特征点对中第一特征点和第二特征点在对应图像中的坐标,将第一特征点映射至第二特征点所在图像,得到第一特征点的映射点。
示例性地,为了避免将同一场景下、不同拍摄角度拍摄得到的待检测图像误判为是对源图像进行复制后经过旋转等编辑处理得到的,故对于待检测图像和源图像对应的每一对目标局部特征点对中的第一特征点和第二特征点,可以将第一特征点映射到第二特征点所在的图像,以在第二特征点所在图像中得到第一特征点的映射点。对第一特征点映射到第二特征点所在图像的方式可以是仿射变换,或者是基于刚体变换矩阵和单应性矩阵进行单应性变换。本申请实施例对第一特征点映射到第二特征点的映射方式不作限定,本领域技术人员可以根据实际使用需要确定。本申请实施例对第一特征点隶属的图像不作限定,可以将源图像的第一特征点(该第一特征点表征源图像中的局部特征点)映射到待检测图像,也可以是将待检测图像的第一特征点(该第一特征点表征待检测图像中的局部特征点)映射到源图像。
在步骤104中,在第二特征点所在图像中,确定第二特征点与映射点之间的距离。
示例性地,当待检测图像为同一场景下、不同拍摄角度拍摄得到的图像,当对该待检测图像中的第一特征点映射到源图像中,由于待检测图像不是对源图像进行复制得到的,由此得到的源图像中的第二特征点到映射点的距离较大;若待检测图像为对源图像进行复制得到的,则进行映射变换后,源图像中第二特征点到映射点的距离较小或者是重合。故可以根据映射操作后,第二特征点与映射点之间的距离作为判定待检测图像是否为对源图像进行复制得到的。该第二特征点到映射点之间的距离可以通过欧式距离公式或者是余弦距离公式确定,本申请实施例对该距离的确定方法不作限定,本领域技术人员可以根据实际使用需要确定。
在步骤105中,获取参考局部特征点对的数量,参考局部特征点对为距离小于目标距离阈值的目标局部特征点对。
示例性地,根据上一步骤中得到的多个第二特征点到映射点之间的距离,获取该距离小于目标距离阈值的目标局部特征点对。该目标距离阈值可以根据采用的映射变换方法确定,不同的映射变换方法,对不同性质下的待检测图像映射到同一源图像中,待检测图像中的局部特征点映射的位置不同。本领域技术人员可以分别获取是对源图像进行复制得到的待检测图像和不是对源图像进行复制得到的待检测图像,采用相同的映射变换方法,确定该目标距离阈值。
在步骤106中,当参考局部特征点对的数量大于目标数量时,确定待检测图像为对源图像进行复制得到的图像。
示例性地,该目标数量可以根据从待检测图像中获取到的局部特征点的数量确定,例如当从待检测图像中获取到的局部特征点的数量为100个,则该目标数量可以是50,当参考局部特征点对的数量大于50时,确定待检测图像为对源图像进行复制得到的,本申请实施例对该目标数量不作限定,本领域技术人员可以根据实际使用需要确定。
本申请实施例提供的图像校验方法,通过对源图像和待检测图像的多个局部特征点匹配得到的目标局部特征点对,基于目标局部特征点对中第一特征点和第二特征点在对应图像中的坐标,将第一特征点映射至第二特征点所在图像,得到第一特征点的映射点,在第二特征点所在图像中,确定第二特征点与映射点之间的距离,获取参考局部特征点对的数量,当参考局部特征点对的数量大于目标数量时,确定待检测图像为对源图像进行复制得到的图像。对第一特征点通过映射变换,得到与第二特征点所在图像处于同一角度下的映射点,继而通过对第二特征点与映射点之间的距离的判定,来对源图像和待检测图像进行拍摄角度差异判定,避免将与源图像拍摄角度不同的待检测图像误判为问题图像,提高了对待检测图像校验结果的准确性。
在本申请的可能实施方式中,在步骤102中,包括:
1021,对任一局部特征点,确定局部特征点与多个参考特征点的距离,多个参考特征点为与局部特征点不在同一图像中的局部特征点。
示例性地,对任一局部特征点,确定该局部特征点与多个参考特征点的距离的方法可以通过曼哈顿距离(Manhattan Distance)函数、加权欧式距离函数(WeightedEuclidean Distance)函数计算得到。本申请实施例对该距离函数不作限定,本领域技术人员可以根据实际使用需要确定。
1022,获取与局部特征点的最近邻参考特征点之间的第一距离,以及与局部特征点的次近邻参考特征点之间的第二距离;当第一距离与第二距离的比值小于目标比值时,将第一距离对应的参考特征点与局部特征点作为一对目标局部特征点对。
示例性地,对于任一局部特征点,可以通过确定与该局部特征点的最近邻参考特征点与次近邻的参考特征点的距离的比值大小,获取可以与该局部特征点组成目标局部特征点对的参考特征点。因为对于源图像和待检测图像中的局部特征点的图像特征的高维性,在错误匹配的情况下,相似距离对应的参考特征点可能包含很多,由此得到的第一距离与第二距离的比值较大,所以可以通过降低比值的方式来提高获取目标局部特征点对的准确性。该最近邻参考特征点与次近邻参考特征点的比值小于目标比值时,则该最近邻参考特征点与该局部特征点组成目标局部特征点对。本申请实施例对该目标比值不作限定,本领域技术人员可以根据实际使用需要确定。当通过最近邻参考特征点与次近邻参考特征点的比值小于目标比值的方法,确定目标局部特征点对后,可以进一步采用GMS(Grid-basedMotion Statistics,基于网格的运动统计方法),对目标局部特征点对的匹配准确性进行优化,剔除错误的目标局部特征点对。
在本申请的可能实施方式中,在步骤103中,包括:
1031,根据每对目标局部特征点对中第一特征点和第二特征点在对应图像中的坐标,确定刚体变换矩阵。
示例性地,对于多对目标局部特征点对{(Pa1,Pb1),(Pa2,Pb2),…,(PaK,PbK)},假设源图像对应的局部特征点的坐标为{Pa1(xa1,ya1),Pa2(xa2,ya2),…,PaK(xaK,yaK)},待检测图像对应的局部特征点的坐标为{Pb1(xb1,yb1),Pb2(xb2,yb2),…,PbK(xbK,ybK)},则待检测图像对应的局部特征点坐标与源图像对应的局部特征点坐标存在如下变换关系,即:
Y=H0X
其中,Y为待检测图像对应的局部特征点坐标,X为源图像对应的局部特征点坐标,称为刚体变换矩阵,在刚体变换矩阵H0中,a、b、c、d、e、f为待求解6个自由度参数。将目标局部特征点对中,局部特征点的坐标Pai(xai,yai)和Pbi(xbi,ybi),i=1,2,…,k,带入上述公式中,采用最小二乘法求得刚变换矩阵H0。
1032,根据刚体变换矩阵,得到用于确定映射点的单应性矩阵。
1033,对任一目标局部特征点对,基于单应性矩阵,将第一特征点映射至第二特征点所在图像,得到第一特征点的映射点。
示例性地,源图像和待检测图像中任一目标局部特征点对(Paj,ybj),j∈(1,2,…,k),将Pbj通过单应性变换,在Paj所在图像上得到映射点P′bj,则源图像和待检测图像中的任一目标局部特征点对的映射变换损失值loss(Paj,Pbj)(该映射变换损失值表征第二特征点到映射点之间的距离),可以采用下式的余弦距离公式计算得到:
loss(Paj,Pbj)=||Paj-P′bj||2
如图2和图3所示,图中的连接线的端点对应的是左右两个图像的目标局部特征点对。图2是未对左右两个图像进行映射变换判定所得到的左右两个图像的目标局部特征点对的数量;图3是对左右两个图像进行映射变换判定所得到的左右两个图像的目标局部特征点对的数量。由图2和图3可以看出,经过映射变换判定后,相同场景、不同拍摄角度下的两个图像的目标局部特征点对的数量明显减少。假设图2中的目标局部特征点对的数量为100,图3中的目标局部特征点对的数量为10,当预设的目标数量为50时,对于图3所示的左右两个相同场景、不同拍摄角度的图像,由于其目标局部特征点对的数量为10个,不能将图3中的左右两个图像判定为其中一个图像为对另一个图像复制得到的图像。
在本申请的可能实施方式中,在步骤105中,包括:基于目标滑动窗口,在源图像或待检测图像中,对局部特征点进行搜索;将位于目标滑动窗口内的局部特征点对应的目标局部特征点对记为一对参考局部特征点对,得到参考局部特征点对的数量。
示例性地,当得到参考局部特征点对的数量较多,为了提高确定参考局部特征点对的数量,可以通过设置目标滑动窗口,在源图像或待检测图像中,对隶属于参考局部特征点对的局部特征点进行搜索。当位于目标滑动窗口内的局部特征点对应的目标局部特征点对记为一对参考局部特征点对,得到参考局部特征点对的数量。
该目标滑动窗口的大小可以根据图像像素的大小确定,当图像像素较大时,可以设置包含第一数量像素的目标滑动窗口;当图像像素较小时,可以设置包含第二数量像素的目标滑动窗口,该第一数量像素大于第二数量像素。本申请不对第一数量像素与第二数量像素进行限定,本领域技术人员可以根据实际图像大小,选择对应大小的目标滑动窗口。比如该目标滑动窗口可以设置为像素变径为2的圆形滑动窗口,以该目标滑动窗口对图像进行搜索,将目标滑动窗口内的局部特征点对应的目标局部特征点对记为一个参考局部特征点对,直至遍历整个图像,得到该图像中参考局部特征点对的数量。
图4是根据一示例性实施例示出的一种视频校验方法的流程图,该视频校验方法可应用于电子设备,如终端或服务器中,本申请实施例以终端进行说明。如图4所示,包括以下步骤。
在步骤401中,获取源视频和待检测视频之间的多个匹配图像对。
示例性地,源视频可以是任一正版视频,待检测视频可以是通过在互联网中输入源视频对应的关键字得到的多个视频中的任一视频。本申请实施例对获取待检测视频的方式不作限定。获取多个匹配图像对的方式可以是分别对源视频和待检测视频中获取到任意两个图像的图像特征进行相似度计算,根据相似度计算结果确定对应匹配图像对;也可以是将源视频和待检测视频中获取到的多个图像输入预先训练好的图像匹配校验模型,根据图像匹配校验模型的输出结果,得到多个匹配图像对。本申请实施例对多个匹配图像对的获取方式不作限定。
在步骤402中,获取每对匹配图像对中的多个局部特征点。
示例性地,对该步骤中的具体说明参见上一实施例,在此不再赘述。
在步骤403中,根据多个局部特征点,得到匹配图像对中满足目标匹配条件的目标局部特征点对。
示例性地,对该步骤中的具体说明参见上一实施例,在此不再赘述。
在步骤404中,对每对目标局部特征点对,基于目标局部特征点对中第一特征点和第二特征点在对应图像中的坐标,将第一特征点映射至第二特征点所在图像,得到第一特征点的映射点。
示例性地,对该步骤中的具体说明参见上一实施例,在此不再赘述。
在步骤405中,在第二特征点所在图像,确定第二特征点与映射点之间的距离。
示例性地,对该步骤中的具体说明参见上一实施例,在此不再赘述。
在步骤406中,获取参考局部特征点对的数量,参考局部特征点对为距离小于目标距离阈值的目标局部特征点对。
示例性地,对该步骤中的具体说明参见上一实施例,在此不再赘述。
在步骤407中,当参考局部特征点对的数量大于目标数量时,将匹配图像对作为目标匹配图像对。
示例性地,该目标匹配图像对表征其中隶属于待检测视频的图像为对隶属于源视频的图像进行复制得到。对该步骤中的具体说明参见上一实施例,在此不再赘述。
在步骤408中,根据目标匹配图像对的数量与待检测视频的图像数,确定待检测视频与源视频的重复率。
示例性地,待检测视频与源视频的重复率可以是目标匹配图像对的数量与待检测视频的图像数的比值;或者是目标匹配图像对的数量与待检测视频的图像数的差值。本申请实施例对该重复率的确定方式不作限定,本领域技术人员可以根据实际使用需要确定。
在步骤409中,当重复率大于目标值时,确定待检测视频为对源视频进行复制得到的视频。
示例性地,当该重复率为目标匹配图像对的数量与待检测视频的图像数的比值时,可以设置该目标值为50%,当目标匹配图像对的数量与待检测视频额图像数的比值大于该目标值,可以确定待检测视频为对源视频进复制得到的。当该重复率为目标匹配图像对的数量与待检测视频的图像数的差值时,可以根据待检测视频的图像数来确定该目标值,比如当待检测视频的图像数为100个图像时,可以将该目标值设置为30,当目标匹配图像对的数量与待检测视频的图像数的差值小于30时,确定待检测视频为对源视频进行复制得到的视频。本申请实施例对该目标值不作限定,本领域技术人员可以根据重复率的确定方式选择对应的目标值。
在本申请的可能实施方式中,在步骤401中,包括:
4011,获取源视频和待检测视频中的目标数量图像的图像特征。
示例性地,在源视频和待检测视频中,获取目标数量图像的方式可以是设置预设数量,分别在源视频和待检测视频中获取该预设数量的图像。该预设数量图像的获取方式可以是随机抽取或者是间隔抽取。
获取目标数量图像的方式也可以是预设间隔数量,分别在源视频和待检测视频中按照该预设间隔数量进行图像的抽取,此种方式得到的源视频和待检测视频中的图像的数量可以相同,也可以不同。为了避免实际获取图像过程中,因错帧影响视频校验结果,同时也要保证视频校验效率,可以设置较小的预设间隔数量,均匀地在源视频和待检测视频中抽取图像。本申请实施例对获取目标数量图像的方式不作限定,本领域技术人员可以根据实际使用需要确定。
4012,在目标数量图像中,根据图像特征,确定源视频中任一图像与待检测视频中每一个图像的相似度,将满足相似度要求的两个图像作为一对匹配图像对。
示例性地,确定源视频和待检测视频间的匹配图像对的方式可以是根据任意两个图像的图像特征,利用欧氏距离或余弦相似度确定两个图像间的相似度,将满足相似度要求的两个图像作为一对匹配图像对。本申请实施例对确定两个图像的相似度的确定方式不作限定,本领域技术人员可以根据实际使用需要确定。
当采用余弦相似度确定源视频中任一图像与待检测视频中每一个图像的相似度时,为了提高确定匹配图像对的速率,可以先将图像的图像特征进行归一化处理。假设从源视频FA中获取的M个图像的图像特征进行归一化后得到FA={fa1,fa2,fa3,…,faM};从待检测视频FB中获取的N个图像的图像特征进行归一化后得到FB={fb1,fb2,fb3,…,fbN},则源视频与待检测视频任意两个图像的图像特征fai与fbi的相似度similarity(fai,fbi)可以按照下式确定:
similarity(fai,fbi)=cosθ=<fai,fbi>
其中,<fai,fbi>是对图像特征fai与fbi进行内积运算。
通过上述公式可以对源视频与待检测视频中任意两个图像进行余弦相似度计算以确定匹配图像对。在实际应用过程中,以矩阵形式进行余弦相似度计算可以提高获取匹配图像对的速率,故可以将源视频与待检测视频的图像特征组成矩阵,将上述对源视频与待检测视频中的任意两个图像进行余弦相似度计算过程,以矩阵形式转化为同时对源视频和待检测视频中所有图像同时进行余弦相似度计算,得到源视频FA与待检测视频FB的相似度矩阵。
当得到相似度矩阵后,可以将相似度矩阵中每一行中选择满足相似度要求的两个图像作为一对匹配图像对。满足相似度要求的两个图像可以是最大相似度对应的两个图像,也可以是相似度在目标区间内的两个图像。本申请实施例对该目标区间不作限定,本领域技术人员可以根据实际需要确定。通过相似度矩阵进行匹配图像对的获取,可以快速、准确地得到多对匹配图像对,进而提高了后续视频校验的效率。本申请实施例对该相似度要求不作限定,本领域技术人员可以根据实际需要确定。
在本申请的可能实施方式中,在步骤401之前,该方法还包括:基于图像特征提取模型,提取源视频和待检测视频中的每一个图像的图像特征;存储每一个图像的图像特征。
示例性地,当获取到待检测视频,可以预先利用图像特征提取模型对源视频和待检测视频中图像的图像特征进行提取,存储源视频和待检测视频的图像特征。通过预先将源视频与待检测视频中图像的图像特征进行存储,提高了后续获取匹配图像对的效率。为了避免预先存储大量的图像特征,占用终端内存,该图像特征提取模型可以为低维卷积神经网络模型以提取低维图像特征,通过存储低维卷积神经网络模型提取出低维图像特征,可减小对终端内存的占用率。
作为本申请一个可选实施方式,该图像特征包括维度小于目标维度值的全局图像特征。
示例性地,图像的全局图像特征可以包括图像的颜色特征、纹理特征或形状特征等,当获取到图像的全局图像特征较多(即全局图像特征的维度较大)时,会增加全局图像特征匹配的复杂度,故可以选择维度小于目标维度值的全局图像特征,本申请实施例对该目标维度值不作限定,本领域技术人员可以根据实际使用需要确定。同时获取图像的全局图像特征可以提高获取匹配图像对的准确性:例如当图像特征提取模型提取的是图像的局部图像特征,如图5所示,在图像区域1和图像区域2中包含的连接线的端点为在左右两个图像提取到的满足目标条件的局部特征点,而图5中左右两个图像完全不同,只是在左右两个图像的图像边缘包含多个相似的局部特征点,故如果图像特征提取模型提取图像的局部图像特征,根据图像的局部图像特征进行图像匹配时,易将局部图像区域相同但图像内容完全不同的图像作为匹配图像对。当图像特征提取模型提取的是图像的全局图像特征,如图6所示,可以看出根据图像的全局图像特征,在左右两个图像中未得到相似的全局图像特征,提高了获取匹配图像对的准确性。同时使用全局图像特征对待检测视频与源视频的校验过程中,当两个图像的内容相差较大,对应的全局图像特征也会差别较大,进而降低了两个图像的相似度similarity(fai,fbi),避免了误将该两个图像作为目标匹配图像对,继而影响待检测视频的重复率的计算结果。
图7是根据一示例性实施例示出的一种图像校验装置框图。参照图7,该装置包括局部特征点获取单元701、目标局部特征点对获取单元702、映射点获取单元703、距离确定单元704、数量获取单元705以及图像确定单元706。
局部特征点获取单元701,被配置为执行获取源图像和待检测图像的多个局部特征点;
目标局部特征点对获取单元702,被配置为执行根据多个局部特征点,得到源图像和待检测图像中满足目标匹配条件的目标局部特征点对;
映射点获取单元703,被配置为执行对每对目标局部特征点对,基于目标局部特征点对中第一特征点和第二特征点在对应图像中的坐标,将第一特征点映射至第二特征点所在图像,得到第一特征点的映射点;
距离确定单元704,被配置为执行在第二特征点所在图像中,确定第二特征点与映射点之间的距离;
数量获取单元705,被配置为执行获取参考局部特征点对的数量,参考局部特征点对为距离小于目标距离阈值的目标局部特征点对;
图像确定单元706,被配置为执行当参考局部特征点对的数量大于目标数量时,确定待检测图像为对源图像进行复制得到的图像。
在本申请的可能实施方式中,目标局部特征点对获取单元702,被配置为执行对任一局部特征点,确定局部特征点与多个参考特征点的距离,多个参考特征点为与局部特征点不在同一图像中的局部特征点;获取与局部特征点的最近邻参考特征点之间的第一距离,以及与局部特征点的次近邻参考特征点之间的第二距离;当第一距离与第二距离的比值小于目标比值时,将第一距离对应的参考特征点与局部特征点作为一对目标局部特征点对。
在本申请的可能实施方式中,映射点获取单元703,被配置为执行根据每对目标局部特征点对中第一特征点和第二特征点在对应图像中的坐标,确定刚体变换矩阵;根据刚体变换矩阵,得到用于确定映射点的单应性矩阵;对任一目标局部特征点对,基于单应性矩阵,将第一特征点映射至第二特征点所在图像,得到第一特征点的映射点。
在本申请的可能实施方式中,数量获取单元705,被配置为执行基于目标滑动窗口,在源图像或待检测图像中,对局部特征点进行搜索;将位于目标滑动窗口内的局部特征点对应的目标局部特征点对记为一对参考局部特征点对,得到参考局部特征点对的数量。
图8是根据一示例性实施例示出的一种视频校验装置框图。参照图8,该装置包括匹配图像对获取单元801、局部特征点获取单元802、目标局部特征点对获取单元803、映射点获取单元804、距离确定单元805、数量获取单元806、目标匹配图像对确定单元807、重复率确定单元808以及视频确定单元809。
匹配图像对获取单元801,被配置为执行获取源视频和待检测视频之间的多个匹配图像对;
局部特征点获取单元802,被配置为执行获取每对匹配图像对中的多个局部特征点;
目标局部特征点对获取单元803,被配置为执行根据多个局部特征点,得到匹配图像对中满足目标匹配条件的目标局部特征点对;
映射点获取单元804,被配置为执行对每对目标局部特征点对,基于目标局部特征点对中第一特征点和第二特征点在对应图像中的坐标,将第一特征点映射至第二特征点所在图像,得到第一特征点的映射点;
距离确定单元805,被配置为执行在第二特征点所在图像,确定第二特征点与映射点之间的距离;
数量获取单元806,被配置为执行获取参考局部特征点对的数量,参考局部特征点对为距离小于目标距离阈值的目标局部特征点对;
目标匹配图像对确定单元807,被配置为执行当参考局部特征点对的数量大于目标数量时,将匹配图像对作为目标匹配图像对;
重复率确定单元808,被配置为执行根据目标匹配图像对的数量与待检测视频的图像数,确定待检测视频与源视频的重复率;
视频确定单元809,被配置为执行当重复率大于目标值时,确定待检测视频为对源视频进行复制得到的视频。
在本申请的可能实施方式中,匹配图像对获取单元801,被配置为执行获取源视频和待检测视频中的目标数量图像的图像特征;在目标数量图像中,根据图像特征,确定源视频中任一图像与待检测视频中每一个图像的相似度,将满足相似度要求的两个图像作为一对匹配图像对。
在本申请的可能实施方式中,匹配图像对获取单元801,还被配置为执行基于图像特征提取模型,提取源视频和待检测视频中的每一个图像的图像特征;存储每一个图像的图像特征。
在本申请的可能实施方式中,图像特征包括维度小于目标维度值的全局图像特征。
关于上述实施例中的装置,其中各个单元执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
基于相同构思,本申请实施例还提供一种电子设备,如图9所示,所述设备包括:
处理器901;
用于存储所述处理器901可执行指令的一个或多个存储器902;
其中,所述处理器901被配置为执行上述实施例所述的图像校验方法或视频校验方法。处理器901和存储器902通过通信总线903连接。
应理解的是,上述处理器可以是中央处理器(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(digital signal processing,DSP)、专用集成电路(application specific integrated circuit,ASIC)、现场可编程门阵列(field-programmable gate array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者是任何常规的处理器等。值得说明的是,处理器可以是支持进阶精简指令集机器(advanced RISC machines,ARM)架构的处理器。
进一步地,在一种可选的实施例中,上述存储器可以包括只读存储器和随机存取存储器,并向处理器提供指令和数据。存储器还可以包括非易失性随机存取存储器。例如,存储器还可以存储设备类型的信息。
该存储器可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(read-only memory,ROM)、可编程只读存储器(programmable ROM,PROM)、可擦除可编程只读存储器(erasable PROM,EPROM)、电可擦除可编程只读存储器(electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(random access memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用。例如,静态随机存取存储器(static RAM,SRAM)、动态随机存取存储器(dynamic random access memory,DRAM)、同步动态随机存取存储器(synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(double data dateSDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(synchlink DRAM,SLDRAM)和直接内存总线随机存取存储器(directrambus RAM,DR RAM)。
本申请提供了一种计算机程序,当计算机程序被计算机执行时,可以使得处理器或计算机执行上述方法实施例中对应的各个步骤和/或流程。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线)或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid StateDisk)等。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。
Claims (12)
1.一种图像校验方法,其特征在于,所述方法包括:
获取源图像和待检测图像的多个局部特征点;
根据所述多个局部特征点,得到所述源图像和所述待检测图像中满足目标匹配条件的目标局部特征点对,每对目标局部特征点对中包括一个所述源图像中的特征点和一个所述待检测图像中的特征点;
对每对所述目标局部特征点对,基于所述目标局部特征点对中第一特征点和第二特征点在对应图像中的坐标,将所述第一特征点映射至所述第二特征点所在图像,得到所述第一特征点的映射点;
在所述第二特征点所在图像中,确定所述第二特征点与所述映射点之间的距离;
获取参考局部特征点对的数量,所述参考局部特征点对为所述距离小于目标距离阈值的所述目标局部特征点对;
当所述参考局部特征点对的数量大于目标数量时,确定所述待检测图像为对所述源图像进行复制得到的图像。
2.根据权利要求1所述的方法,其特征在于,所述根据所述多个局部特征点,得到所述源图像和所述待检测图像中满足目标匹配条件的目标局部特征点对,包括:
对任一局部特征点,确定所述局部特征点与多个参考特征点的距离,所述多个参考特征点为与所述局部特征点不在同一图像中的局部特征点;
获取与所述局部特征点的最近邻参考特征点之间的第一距离,以及与所述局部特征点的次近邻参考特征点之间的第二距离;
当所述第一距离与所述第二距离的比值小于目标比值时,将所述第一距离对应的参考特征点与所述局部特征点作为一对所述目标局部特征点对。
3.根据权利要求1所述的方法,其特征在于,所述对每对所述目标局部特征点对,基于所述目标局部特征点对中第一特征点和第二特征点在对应图像中的坐标,将所述第一特征点映射至所述第二特征点所在图像,得到所述第一特征点的映射点,包括:
根据每对所述目标局部特征点对中第一特征点和第二特征点在对应图像中的坐标,确定刚体变换矩阵;
根据所述刚体变换矩阵,得到用于确定所述映射点的单应性矩阵;
对任一所述目标局部特征点对,基于所述单应性矩阵,将所述第一特征点映射至所述第二特征点所在图像,得到所述第一特征点的映射点。
4.根据权利要求1所述的方法,其特征在于,所述获取参考局部特征点对的数量,包括:
基于目标滑动窗口,在所述源图像或待检测图像中,对局部特征点进行搜索;
将位于所述目标滑动窗口内的局部特征点对应的所述目标局部特征点对记为一对参考局部特征点对,得到所述参考局部特征点对的数量。
5.一种视频校验方法,其特征在于,所述方法包括:
获取源视频和待检测视频之间的多个匹配图像对;
获取每对所述匹配图像对中的多个局部特征点;
根据所述多个局部特征点,得到所述匹配图像对中满足目标匹配条件的目标局部特征点对,每对目标局部特征点对中包括一个所述源图像中的特征点和一个所述待检测图像中的特征点;
对每对所述目标局部特征点对,基于所述目标局部特征点对中第一特征点和第二特征点在对应图像中的坐标,将所述第一特征点映射至所述第二特征点所在图像,得到所述第一特征点的映射点;
在所述第二特征点所在图像,确定所述第二特征点与所述映射点之间的距离;
获取参考局部特征点对的数量,所述参考局部特征点对为所述距离小于目标距离阈值的所述目标局部特征点对;
当所述参考局部特征点对的数量大于目标数量时,将所述匹配图像对作为目标匹配图像对;
根据所述目标匹配图像对的数量与所述待检测视频的图像数,确定所述待检测视频与所述源视频的重复率;
当所述重复率大于目标值时,确定所述待检测视频为对所述源视频进行复制得到的视频。
6.根据权利要求5所述的方法,其特征在于,所述获取源视频和待检测视频之间的多个匹配图像对,包括:
获取所述源视频和所述待检测视频中的目标数量图像的图像特征;
在所述目标数量图像中,根据所述图像特征,确定所述源视频中任一图像与所述待检测视频中每一个图像的相似度,将满足相似度要求的两个图像作为一对所述匹配图像对。
7.根据权利要求6所述的方法,其特征在于,所述获取所述源视频和所述待检测视频中的目标数量图像的图像特征之前,所述方法还包括:
基于图像特征提取模型,提取所述源视频和所述待检测视频中的每一个图像的图像特征;
存储所述每一个图像的图像特征。
8.根据权利要求6或7所述的方法,其特征在于,所述图像特征包括维度小于目标维度值的全局图像特征。
9.一种图像校验装置,其特征在于,所述装置包括:
局部特征点获取单元,被配置为执行获取源图像和待检测图像的多个局部特征点;
目标局部特征点对获取单元,被配置为执行根据所述多个局部特征点,得到所述源图像和所述待检测图像中满足目标匹配条件的目标局部特征点对,每对目标局部特征点对中包括一个所述源图像中的特征点和一个所述待检测图像中的特征点;
映射点获取单元,被配置为执行对每对所述目标局部特征点对,基于所述目标局部特征点对中第一特征点和第二特征点在对应图像中的坐标,将所述第一特征点映射至所述第二特征点所在图像,得到所述第一特征点的映射点;
距离确定单元,被配置为执行在所述第二特征点所在图像中,确定所述第二特征点与所述映射点之间的距离;
数量获取单元,被配置为执行获取参考局部特征点对的数量,所述参考局部特征点对为所述距离小于目标距离阈值的所述目标局部特征点对;
图像确定单元,被配置为执行当所述参考局部特征点对的数量大于目标数量时,确定所述待检测图像为对所述源图像进行复制得到的图像。
10.一种视频校验装置,其特征在于,所述装置包括:
匹配图像对获取单元,被配置为执行获取源视频和待检测视频之间的多个匹配图像对;
局部特征点获取单元,被配置为执行获取每对所述匹配图像对中的多个局部特征点;
目标局部特征点对获取单元,被配置为执行根据所述多个局部特征点,得到所述匹配图像对中满足目标匹配条件的目标局部特征点对,每对目标局部特征点对中包括一个所述源图像中的特征点和一个所述待检测图像中的特征点;
映射点获取单元,被配置为执行对每对所述目标局部特征点对,基于所述目标局部特征点对中第一特征点和第二特征点在对应图像中的坐标,将所述第一特征点映射至所述第二特征点所在图像,得到所述第一特征点的映射点;
距离确定单元,被配置为执行在所述第二特征点所在图像,确定所述第二特征点与所述映射点之间的距离;
数量获取单元,被配置为执行获取参考局部特征点对的数量,所述参考局部特征点对为所述距离小于目标距离阈值的所述目标局部特征点对;
目标匹配图像对确定单元,被配置为执行当所述参考局部特征点对的数量大于目标数量时,将所述匹配图像对作为目标匹配图像对;
重复率确定单元,被配置为执行根据所述目标匹配图像对的数量与所述待检测视频的图像数,确定所述待检测视频与所述源视频的重复率;
视频确定单元,被配置为执行当所述重复率大于目标值时,确定所述待检测视频为对所述源视频进行复制得到的视频。
11.一种电子设备,其特征在于,包括:
处理器;
用于存储所述处理器可执行指令的一个或多个存储器;
其中,所述处理器被配置为执行权利要求1-4中任一项所述的图像校验方法,或者权利要求5-8中任一项所述的视频校验方法。
12.一种存储介质,其特征在于,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行权利要求1-4中任一项所述的图像校验方法,或者权利要求5-8中任一项所述的视频校验方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910996351.5A CN110941989A (zh) | 2019-10-18 | 2019-10-18 | 图像校验、视频校验方法、装置、设备及存储介质 |
US17/073,880 US11625819B2 (en) | 2019-10-18 | 2020-10-19 | Method and device for verifying image and video |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910996351.5A CN110941989A (zh) | 2019-10-18 | 2019-10-18 | 图像校验、视频校验方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110941989A true CN110941989A (zh) | 2020-03-31 |
Family
ID=69905979
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910996351.5A Pending CN110941989A (zh) | 2019-10-18 | 2019-10-18 | 图像校验、视频校验方法、装置、设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11625819B2 (zh) |
CN (1) | CN110941989A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111476780A (zh) * | 2020-04-07 | 2020-07-31 | 腾讯科技(深圳)有限公司 | 一种图像检测方法、装置、电子设备以及存储介质 |
CN111680549A (zh) * | 2020-04-28 | 2020-09-18 | 肯维捷斯(武汉)科技有限公司 | 一种纸纹识别方法 |
CN112507875A (zh) * | 2020-12-10 | 2021-03-16 | 上海连尚网络科技有限公司 | 一种用于检测视频重复度的方法与设备 |
CN113741682A (zh) * | 2020-05-29 | 2021-12-03 | 北京七鑫易维信息技术有限公司 | 注视点的映射方法、装置、设备及存储介质 |
CN114444564A (zh) * | 2021-12-14 | 2022-05-06 | 广州锐竞信息科技有限责任公司 | 一种基于深度神经网络模型的高相似度论文图片比对方法 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11538140B2 (en) | 2020-11-13 | 2022-12-27 | Adobe Inc. | Image inpainting based on multiple image transformations |
US11941792B2 (en) * | 2021-04-09 | 2024-03-26 | Dell Products L.P. | Machine learning-based analysis of computing device images included in requests to service computing devices |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130208997A1 (en) * | 2010-11-02 | 2013-08-15 | Zte Corporation | Method and Apparatus for Combining Panoramic Image |
CN104156952A (zh) * | 2014-07-31 | 2014-11-19 | 中国科学院自动化研究所 | 一种抵抗形变的图像匹配方法 |
CN104766084A (zh) * | 2015-04-10 | 2015-07-08 | 南京大学 | 一种多目标匹配的近复制图像检测方法 |
CN105354578A (zh) * | 2015-10-27 | 2016-02-24 | 安徽大学 | 一种多目标物体图像匹配方法 |
CN105354558A (zh) * | 2015-11-23 | 2016-02-24 | 河北工业大学 | 人脸图像匹配方法 |
CN105608233A (zh) * | 2016-02-26 | 2016-05-25 | 北京大学 | 一种基于改进的om特征的视频拷贝检测方法 |
CN109859225A (zh) * | 2018-12-24 | 2019-06-07 | 中国电子科技集团公司第二十研究所 | 一种基于改进orb特征点匹配的无人机景象匹配定位方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100975512B1 (ko) * | 2007-03-09 | 2010-08-11 | 오므론 가부시키가이샤 | 인식 처리 방법 및 이 방법을 이용한 화상 처리 장치 |
KR101165359B1 (ko) * | 2011-02-21 | 2012-07-12 | (주)엔써즈 | 이미지와 이미지 또는 이미지와 동영상 사이의 상호 관계 분석 장치 및 방법 |
GB2501224B (en) * | 2012-01-10 | 2016-03-09 | Qatar Foundation | Detecting video copies |
US9063954B2 (en) * | 2012-10-15 | 2015-06-23 | Google Inc. | Near duplicate images |
JP6280382B2 (ja) * | 2013-03-08 | 2018-02-14 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
CN105849776A (zh) * | 2013-12-26 | 2016-08-10 | 日本电气株式会社 | 图像处理装置、主题识别方法和程序 |
JP6593327B2 (ja) * | 2014-05-07 | 2019-10-23 | 日本電気株式会社 | 画像処理装置、画像処理方法およびコンピュータ可読記録媒体 |
US9846948B2 (en) * | 2014-07-09 | 2017-12-19 | Ditto Labs, Inc. | Systems, methods, and devices for image matching and object recognition in images using feature point optimization |
US10269147B2 (en) * | 2017-05-01 | 2019-04-23 | Lockheed Martin Corporation | Real-time camera position estimation with drift mitigation in incremental structure from motion |
US11074434B2 (en) * | 2018-04-27 | 2021-07-27 | Microsoft Technology Licensing, Llc | Detection of near-duplicate images in profiles for detection of fake-profile accounts |
CN110060276B (zh) * | 2019-04-18 | 2023-05-16 | 腾讯科技(深圳)有限公司 | 对象追踪方法、追踪处理方法、相应的装置、电子设备 |
JP7253573B2 (ja) * | 2020-04-09 | 2023-04-06 | センスタイム インターナショナル ピーティーイー.リミテッド | マッチング方法、装置、電子機器及びコンピュータ可読記憶媒体 |
-
2019
- 2019-10-18 CN CN201910996351.5A patent/CN110941989A/zh active Pending
-
2020
- 2020-10-19 US US17/073,880 patent/US11625819B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130208997A1 (en) * | 2010-11-02 | 2013-08-15 | Zte Corporation | Method and Apparatus for Combining Panoramic Image |
CN104156952A (zh) * | 2014-07-31 | 2014-11-19 | 中国科学院自动化研究所 | 一种抵抗形变的图像匹配方法 |
CN104766084A (zh) * | 2015-04-10 | 2015-07-08 | 南京大学 | 一种多目标匹配的近复制图像检测方法 |
CN105354578A (zh) * | 2015-10-27 | 2016-02-24 | 安徽大学 | 一种多目标物体图像匹配方法 |
CN105354558A (zh) * | 2015-11-23 | 2016-02-24 | 河北工业大学 | 人脸图像匹配方法 |
CN105608233A (zh) * | 2016-02-26 | 2016-05-25 | 北京大学 | 一种基于改进的om特征的视频拷贝检测方法 |
CN109859225A (zh) * | 2018-12-24 | 2019-06-07 | 中国电子科技集团公司第二十研究所 | 一种基于改进orb特征点匹配的无人机景象匹配定位方法 |
Non-Patent Citations (4)
Title |
---|
YE ZHU & XUANJING SHEN & HAIPENG CHEN.: "Copy-move forgery detection based on scaled ORB", 《MULTIMED TOOLS APPL (2016)》, vol. 75, no. 6, 30 June 2016 (2016-06-30), pages 3225 * |
曾峦,熊伟,赵忠文等: "侦察图像获取与融合技术", 国防工业出版社, pages: 16 - 21 * |
罗楠等: "针对重复模式图像的成对特征点匹配", 《中国图象图形学报》 * |
罗楠等: "针对重复模式图像的成对特征点匹配", 《中国图象图形学报》, vol. 20, no. 1, 16 January 2015 (2015-01-16), pages 117 - 118 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111476780A (zh) * | 2020-04-07 | 2020-07-31 | 腾讯科技(深圳)有限公司 | 一种图像检测方法、装置、电子设备以及存储介质 |
CN111476780B (zh) * | 2020-04-07 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 一种图像检测方法、装置、电子设备以及存储介质 |
CN111680549A (zh) * | 2020-04-28 | 2020-09-18 | 肯维捷斯(武汉)科技有限公司 | 一种纸纹识别方法 |
CN111680549B (zh) * | 2020-04-28 | 2023-12-05 | 肯维捷斯(武汉)科技有限公司 | 一种纸纹识别方法 |
CN113741682A (zh) * | 2020-05-29 | 2021-12-03 | 北京七鑫易维信息技术有限公司 | 注视点的映射方法、装置、设备及存储介质 |
CN112507875A (zh) * | 2020-12-10 | 2021-03-16 | 上海连尚网络科技有限公司 | 一种用于检测视频重复度的方法与设备 |
CN114444564A (zh) * | 2021-12-14 | 2022-05-06 | 广州锐竞信息科技有限责任公司 | 一种基于深度神经网络模型的高相似度论文图片比对方法 |
Also Published As
Publication number | Publication date |
---|---|
US20210118119A1 (en) | 2021-04-22 |
US11625819B2 (en) | 2023-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110941989A (zh) | 图像校验、视频校验方法、装置、设备及存储介质 | |
US9576221B2 (en) | Systems, methods, and devices for image matching and object recognition in images using template image classifiers | |
CN106447592B (zh) | 每个特征描述符的在线个性化服务 | |
US10311099B2 (en) | Method and system for 3D model database retrieval | |
US11714921B2 (en) | Image processing method with ash code on local feature vectors, image processing device and storage medium | |
US20170323149A1 (en) | Rotation invariant object detection | |
Qu et al. | Image seamless stitching and straightening based on the image block | |
US20210312215A1 (en) | Method for book recognition and book reading device | |
CN110909663A (zh) | 一种人体关键点识别方法、装置及电子设备 | |
US20200005078A1 (en) | Content aware forensic detection of image manipulations | |
WO2019100348A1 (zh) | 图像检索方法和装置以及图像库的生成方法和装置 | |
Kong et al. | Local Stereo Matching Using Adaptive Cross‐Region‐Based Guided Image Filtering with Orthogonal Weights | |
CN110135428B (zh) | 图像分割处理方法和装置 | |
Qu et al. | Source-free Style-diversity Adversarial Domain Adaptation with Privacy-preservation for person re-identification | |
Huang et al. | Robust simultaneous localization and mapping in low‐light environment | |
Kang et al. | Combining random forest with multi-block local binary pattern feature selection for multiclass head pose estimation | |
CN116071804A (zh) | 人脸识别的方法、装置和电子设备 | |
JP2015007919A (ja) | 異なる視点の画像間で高精度な幾何検証を実現するプログラム、装置及び方法 | |
WO2022068551A1 (zh) | 裁剪视频的方法、装置、设备以及存储介质 | |
Maier et al. | Ground truth accuracy and performance of the matching pipeline | |
CN113344961B (zh) | 图像背景分割方法、装置、计算设备及存储介质 | |
CN115482398A (zh) | 一种外观侵权的检测方法、装置及存储介质 | |
CN113569934A (zh) | Logo分类模型构建方法、***、电子设备及存储介质 | |
Zhang et al. | DS‐SRI: Diversity similarity measure against scaling, rotation, and illumination change for robust template matching | |
CN112184776A (zh) | 一种目标跟踪方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |