CN115344738A - 基于人工智能的检索方法及*** - Google Patents

基于人工智能的检索方法及*** Download PDF

Info

Publication number
CN115344738A
CN115344738A CN202211269591.3A CN202211269591A CN115344738A CN 115344738 A CN115344738 A CN 115344738A CN 202211269591 A CN202211269591 A CN 202211269591A CN 115344738 A CN115344738 A CN 115344738A
Authority
CN
China
Prior art keywords
image
character
information
pixel
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211269591.3A
Other languages
English (en)
Other versions
CN115344738B (zh
Inventor
邹洋
刘思思
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Zhiguo Technology Co ltd
Original Assignee
Nantong Zhiguo Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nantong Zhiguo Technology Co ltd filed Critical Nantong Zhiguo Technology Co ltd
Priority to CN202211269591.3A priority Critical patent/CN115344738B/zh
Publication of CN115344738A publication Critical patent/CN115344738A/zh
Application granted granted Critical
Publication of CN115344738B publication Critical patent/CN115344738B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5846Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using extracted text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/1444Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields
    • G06V30/1456Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields based on user interactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/18Extraction of features or characteristics of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/19007Matching; Proximity measures
    • G06V30/19093Proximity measures, i.e. similarity or distance measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/1918Fusion techniques, i.e. combining data from various sources, e.g. sensor fusion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Library & Information Science (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Character Discrimination (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供一种基于人工智能的检索方法及***,包括:获取待检索商标的第一图像,基于文字识别技术对第一图像进行文字提取得到第一文字信息,基于第一文字信息对第一图像添加第一备注信息;判断提取第一图像内的第一文字信息后,对第一图像中相应的第一文字信息进行删除得到第二图像,根据第二图像中满足要求的像素点,对第二图像进行二值化处理得到第三图像;获取商标的图像数据库中预先配置的二值化的第四图像、以及第四图像所对应的第二备注信息,根据第三图像、第四图像、第一备注信息以及第二备注信息计算,得到第一图像与每一个第四图像的图像相似度系数;根据图像相似度系数统计预设数量的第四图像所对应的商标,生成商标近似检索列表。

Description

基于人工智能的检索方法及***
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于人工智能的检索方法及***。
背景技术
商标检索即商标查询,是商标注册申请人或代理人到商标局查询申请注册的商标有无与在先权利商标相同或近似的情况,以了解自己准备申请注册的商标是否与他人已经注册的商标相混同。
商标至少分为文字商标、图形商标以及图形和文字相结合的综合商标,在当前的检索引擎中,大多是根据用户想要注册商标的文字进行检索,得到相对应的、近似的文字商标,导致用户在对图形商标、图形和文字相结合的综合商标进行检索时则无法进行有效的检索,导致商标检索场景局限较大,所以,亟需一种基于人工智能的方式,对图像和文字相结合的商标进行高效的检索。
发明内容
本发明实施例提供一种基于人工智能的检索方法及***,可以对图像和文字相结合的商标进行高效的检索。
本发明实施例的第一方面,提供一种基于人工智能的检索方法,包括:
获取待检索商标的第一图像,基于文字识别技术对所述第一图像进行文字提取得到第一文字信息,基于第一文字信息对所述第一图像添加第一备注信息;
在判断提取第一图像内的第一文字信息后,对第一图像中相应的第一文字信息进行删除得到第二图像,根据第二图像中满足要求的像素点,对第二图像进行二值化处理得到第三图像;
获取商标的图像数据库中预先配置的二值化的第四图像、以及第四图像所对应的第二备注信息,根据所述第三图像、第四图像、第一备注信息以及第二备注信息计算,得到第一图像与每一个第四图像的图像相似度系数;
根据所述图像相似度系数统计预设数量的第四图像所对应的商标,生成商标近似检索列表。
可选的,在第一方面可能的实施方式中,所述获取待检索商标的第一图像,基于文字识别技术对所述第一图像进行文字提取得到第一文字信息,基于第一文字信息对所述第一图像添加第一备注信息,包括:
对待检索商标的图像进行拍照得到拍照图像,若判断所述拍照图像的分辨率大于预设分辨率,则生成第一截取框,对所述第一截取框进行初始定位使得第一截取框处于拍照图像的第一位置;
若接收到用户的确认信息,则将处于第一位置的第一截取框内的图像作为第一图像;
若接收到用户的截取框拖拽信息,则根据截取框拖拽信息将处于第一位置的第一截取框拖拽至第二位置,对所述第二位置进行自动修正,将处于第二位置的第一截取框内的图像作为第一图像;
若判断基于文字识别技术识别到第一图像内具有第一文字信息,则基于第一文字信息对所述第一图像添加第一备注信息,并获取第一文字信息所对应的文字像素坐标集。
可选的,在第一方面可能的实施方式中,所述对待检索的图像进行拍照得到拍照图像,若判断所述拍照图像的分辨率大于预设分辨率,则生成第一截取框,对所述第一截取框进行初始定位使得第一截取框处于拍照图像的第一位置,包括:
对所述拍照图像按照其中心像素点为原点进行坐标化处理,调取预设的第一截取框,确定所述第一截取框的截取框中心点;
将所述截取框中心点与所述拍照图像的中心像素点对齐设置,此时第一截取框完成初始定位使得第一截取框处于拍照图像的第一位置。
可选的,在第一方面可能的实施方式中,所述若接收到用户的截取框拖拽信息,则根据截取框拖拽信息将处于第一位置的第一截取框拖拽至第二位置,对所述第二位置进行自动修正,将处于第二位置的第一截取框内的图像作为第一图像,包括:
根据截取框拖拽信息对第一截取框进行移动,使得第一截取框拖拽至第二位置,获取第一截取框在被拖拽至第二位置时,位于第一截取框内的拍照图像的所有像素点的第一像素值;
确定第一像素值处于第一预设像素区间内的第一像素点得到第一像素点集合,提取第一像素点集合中的具有的极值像素点坐标;
根据极值像素点坐标包括的极值X轴最大坐标、极值X轴最小坐标、极值Y轴最大坐标、极值Y轴最小坐标进行计算,得到修正坐标点;
将所述第一截取框的截取框中心点与所述修正坐标点重合设置,以对第一截取框进行纠正调整,将纠正调整后的第一截取框拖拽所对应的位置作为最终的第二位置。
可选的,在第一方面可能的实施方式中,所述根据极值像素点坐标包括的极值X轴最大坐标、极值X轴最小坐标、极值Y轴最大坐标、极值Y轴最小坐标进行计算,得到修正坐标点,包括:
根据极值像素点坐标包括的极值X轴最大坐标、极值X轴最小坐标进行计算得到修正坐标点的第一X轴坐标,根据极值Y轴最大坐标、极值Y轴最小坐标进行计算,得到修正坐标点的第一Y轴坐标;
确定小于第一X轴坐标的所有像素点得到第一像素点数量,确定大于第一X轴坐标的所有像素点得到第二像素点数量;
确定小于第一Y轴坐标的所有像素点得到第三像素点数量,确定大于第一Y轴坐标的所有像素点得到第四像素点数量;
根据所述第一像素点数量、第二像素点数量对第一X轴坐标进行调整,得到第二X轴坐标,根据所述第三像素点数量、第四像素点数量对第一Y轴坐标进行调整,得到第二Y轴坐标;
通过以下公式得到修正坐标点的第二X轴坐标和第二Y轴坐标,
Figure 226574DEST_PATH_IMAGE001
其中,
Figure 550239DEST_PATH_IMAGE002
为第一像素点数量,
Figure 861135DEST_PATH_IMAGE003
为第二像素点数量,
Figure 521923DEST_PATH_IMAGE004
为第二X轴坐标,
Figure 742820DEST_PATH_IMAGE005
为 极值X轴最大坐标,
Figure 830862DEST_PATH_IMAGE006
为极值X轴最小坐标,
Figure 2955DEST_PATH_IMAGE007
为数量归一化值,
Figure 467434DEST_PATH_IMAGE008
为X轴坐标权重值,
Figure 667472DEST_PATH_IMAGE009
为第二Y轴坐标,
Figure 801781DEST_PATH_IMAGE010
为极值Y轴最大坐标,
Figure 87269DEST_PATH_IMAGE011
为极值Y轴最小坐标,
Figure 230805DEST_PATH_IMAGE012
为第三像素 点数量,
Figure 19770DEST_PATH_IMAGE013
为第四像素点数量,
Figure 980772DEST_PATH_IMAGE014
为Y轴坐标权重值。
可选的,在第一方面可能的实施方式中,所述在判断提取第一图像内的第一文字信息后,对第一图像中相应的第一文字信息进行删除得到第二图像,根据第二图像中满足要求的像素点,对第二图像进行二值化处理得到第三图像,包括:
获取第一图像与所述文字像素坐标集所对应的文字像素点,将所述文字像素点由当前像素值替换为预设像素值,以实现对第一图像中相应的第一文字信息进行删除得到第二图像;
确定第二图像中在预设像素区间内的像素点为满足要求的像素点,将所有满足要求的像素点的像素值替换为黑色像素值;
将所有不位于预设像素区间内的像素点的像素值替换为白色像素值,以使第二图像实现二值化处理得到第三图像。
可选的,在第一方面可能的实施方式中,所述获取商标的图像数据库中预先配置的二值化的第四图像、以及第四图像所对应的第二备注信息,根据所述第三图像、第四图像、第一备注信息以及第二备注信息计算,得到第一图像与每一个第四图像的图像相似度系数,包括:
确定第三图像的第一起始像素点,根据第一起始像素点依次获取第三图像的像素值得到第三图像的图像指纹集合;
确定第四图像中与第一起始像素点坐标相对应的第二起始像素点,根据第二起始像素点依次获取第四图像的像素值得到第四图像的图像指纹集合;
确定第三图像的图像指纹集合、第四图像的图像指纹集合中相同像素点的数量,得到图像相似度子系数;
对所述第一备注信息以及第二备注信息分别进行文字识别,剔除第一备注信息以及第二备注信息中的无关文字得到第一关联文字和第二关联文字,确定第一关联文字和第二关联文字中相同的文字,得到文字相似度子系数;
根据所述图像相似度子系数、文字相似度子系数进行融合计算,得到第一图像与每一个第四图像的图像相似度系数。
可选的,在第一方面可能的实施方式中,所述确定第三图像的图像指纹集合、第四图像的图像指纹集合中相同像素点的数量,得到图像相似度子系数,包括:
统计第三图像的图像指纹集合、第四图像的图像指纹集合中具有相同坐标、相同像素值的像素点,得到相同像素点的数量;
根据相同像素点的数量、图像指纹集合内像素点的总数量进行计算,得到图像相似度子系数。
可选的,在第一方面可能的实施方式中,所述对所述第一备注信息以及第二备注信息分别进行文字识别,剔除第一备注信息以及第二备注信息中的无关文字得到第一关联文字和第二关联文字,确定第一关联文字和第二关联文字中相同的文字,得到文字相似度子系数,包括:
调取预先设置的无关信息对应表,所述无关信息对应表内包括多个无关文字,对第一备注信息以及第二备注信息分别进行分词处理得到相对应的第一分词和第二分词;
若判断第一备注信息以及第二备注信息中具有与无关信息对应表内无关词语所对应的第一分词和第二分词,则将相应的第一分词和第二分词由所述第一备注信息以及第二备注信息内删除;
统计第一分词和第二分词的第一数量和第二数量,将第一数量和第二数量中较少的数量作为待比对数量,依次获取待比对数量所对应的分词与非待比对数量所对应的分词一一比对,将待比对数量所对应的分词与最近的非待比对数量所对应的分词相关联;
统计相关联的分词的数量、以及每个相关联的分词中相同字的数量,根据相关联的分词的数量、相同字的数量、第一数量和第二数量进行计算得到文字相似度子系数。
可选的,在第一方面可能的实施方式中,所述依次获取待比对数量所对应的分词与非待比对数量所对应的分词一一比对,将待比对数量所对应的分词与最近的非待比对数量所对应的分词相关联,包括:
获取待比对数量所对应的分词,将相应的分词的字与非待比对数量所对应的分词的字一一比对,若判断比对后待比对数量所对应的分词与相应非待比对数量所对应的分词相同的字最多;
则将相同的字最多的两个分词相关联。
可选的,在第一方面可能的实施方式中,所述根据所述图像相似度子系数、文字相似度子系数进行融合计算,得到第一图像与每一个第四图像的图像相似度系数,包括:
根据图像计算权重对图像相似度子系数进行加权处理得到图像子系数,根据文字计算权重对文字相似度子系数进行加权处理得到文字子系数;
对所述图像子系数和文字子系数进行融合计算得到第一图像与每一个第四图像的图像相似度系数,通过以下公式计算图像相似度系数,
Figure 363343DEST_PATH_IMAGE015
其中,
Figure 169625DEST_PATH_IMAGE016
为图像相似度系数,
Figure 78675DEST_PATH_IMAGE017
为相同像素点的数量,
Figure 318902DEST_PATH_IMAGE018
为图像指纹集合内像 素点的总数量,
Figure 578982DEST_PATH_IMAGE019
为图像计算权重,
Figure 798742DEST_PATH_IMAGE020
为相关联的分词的数量,
Figure 827877DEST_PATH_IMAGE021
为第一分词的第一数 量,
Figure 865104DEST_PATH_IMAGE022
为第二分词的第二数量,
Figure 956688DEST_PATH_IMAGE023
为分词数量的归一化值,
Figure 370351DEST_PATH_IMAGE024
为第
Figure 129360DEST_PATH_IMAGE025
个相关联的分词的相同 字的数量,
Figure 603067DEST_PATH_IMAGE026
为相关联的分词的上限值,
Figure 306580DEST_PATH_IMAGE027
为相同字的归一化值,
Figure 366678DEST_PATH_IMAGE028
为文字计算权重。
本发明实施例的第二方面,提供一种基于人工智能的检索***,包括:
提取模块,用于获取待检索商标的第一图像,基于文字识别技术对所述第一图像进行文字提取得到第一文字信息,基于第一文字信息对所述第一图像添加第一备注信息;
二值化处理模块,用于在判断提取第一图像内的第一文字信息后,对第一图像中相应的第一文字信息进行删除得到第二图像,根据第二图像中满足要求的像素点,对第二图像进行二值化处理得到第三图像;
相似度计算模块,用于获取商标的图像数据库中预先配置的二值化的第四图像、以及第四图像所对应的第二备注信息,根据所述第三图像、第四图像、第一备注信息以及第二备注信息计算,得到第一图像与每一个第四图像的图像相似度系数;
生成模块,用于根据所述图像相似度系数统计预设数量的第四图像所对应的商标,生成商标近似检索列表。
本发明实施例的第三方面,提供一种存储介质,所述存储介质中存储有计算机程序,所述计算机程序被处理器执行时用于实现本发明第一方面及第一方面各种可能设计的所述方法。
有益效果:
1、本方案会提取商标中的文字信息和图像信息,先按照文字信息和图像信息各自的特征对文字维度和图像维度的信息分别分析,得到各自的分析结果,然后两个维度的分析结果进行汇总,得到融合结果,可以较为准确、高效的实现对图像和文字相结合的商标的检索。
2、本方案在对图像维度的信息进行分析时,会采用截取框来提取所需图像,在提取的过程中设置了对截取框两次定位的方案,其中,一次定位采用截取框和拍照图像的中心点进行定位,该定位方式下,具有数据处理量小、定位快速的优势;二次定位采用位于不同位置的像素点数量的多少进行定位,该定位方式下可以使得商标图像内容位于所截取图像的较为居中位置;在图像信息处理完毕后,本方案会采用相同像素点的数量维度进行比对,可以快速高效的得到图像维度的相似度系数。
3、本方案在对文字维度的信息进行分析时,会对文字信息进行分词,剔除无关文字,减少后续的比对量,同时剔除无关文字的影响,提高比对的准确性;在对文字维度的信息处理完毕后,本方案会以相关联的分词的数量维度以及相关联的分词的相同字的数量维度进行综合分析,较为准确的计算出文字维度的相似度系数。
4、本方案在得到图像子系数和文字子系数后,会依据图像计算权重和文字计算权重来对图像子系数和文字子系数进行融合,且融合过程中,图像计算权重和文字计算权重可以依据需求进行设置,灵活的调整不同维度的计算占比,更为符合用户的需求。
附图说明
图1是本发明实施例提供的一种基于人工智能的检索方法的流程示意图;
图2是本发明实施例提供的一种基于人工智能的检索***的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。
应当理解,在本发明的各种实施例中,各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
应当理解,在本发明中,“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本发明中,“多个”是指两个或两个以上。“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。“包含A、B和C”、“包含A、B、C”是指A、B、C三者都包含,“包含A、B或C”是指包含A、B、C三者之一,“包含A、B和/或C”是指包含A、B、C三者中任1个或任2个或3个。
应当理解,在本发明中,“与A对应的B”、“与A相对应的B”、“A与B相对应”或者“B与A相对应”,表示B与A相关联,根据A可以确定B。根据A确定B并不意味着仅仅根据A确定B,还可以根据A和/或其他信息确定B。A与B的匹配,是A与B的相似度大于或等于预设的阈值。
取决于语境,如在此所使用的“若”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于检测”。
下面以具体地实施例对本发明的技术方案进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。
参见图1,是本发明实施例提供的一种基于人工智能的检索方法的流程示意图,图1所示方法的执行主体可以是软件和/或硬件装置。本申请的执行主体可以包括但不限于以下中的至少一个:用户设备、网络设备等。其中,用户设备可以包括但不限于计算机、智能手机、个人数字助理(Personal Digital Assistant,简称:PDA)及上述提及的电子设备等。网络设备可以包括但不限于单个网络服务器、多个网络服务器组成的服务器组或基于云计算的由大量计算机或网络服务器构成的云,其中,云计算是分布式计算的一种,由一群松散耦合的计算机组成的一个超级虚拟计算机。本实施例对此不做限制。该基于人工智能的检索方法包括S1-S4:
S1,获取待检索商标的第一图像,基于文字识别技术对所述第一图像进行文字提取得到第一文字信息,基于第一文字信息对所述第一图像添加第一备注信息。
一般来说,商标为图像、文字、或者文字图像的组合,本方案会获取待检索商标的第一图像,然后利用文字识别技术对第一图像进行文字提取得到第一文字信息,在得到第一文字信息后,利用第一文字信息对第一图像添加第一备注信息。其中,文字识别技术可以是OCR技术,其为现有技术,在此不再赘述。
在上述实施例的基础上,S1(所述获取待检索商标的第一图像,基于文字识别技术对所述第一图像进行文字提取得到第一文字信息,基于第一文字信息对所述第一图像添加第一备注信息)包括S11-S14:
S11,对待检索商标的图像进行拍照得到拍照图像,若判断所述拍照图像的分辨率大于预设分辨率,则生成第一截取框,对所述第一截取框进行初始定位使得第一截取框处于拍照图像的第一位置;
本方案为了对待检索商标的图像进行处理,会对待检索商标的图像进行拍照得到拍照图像,可以理解的是,拍照图像对应待检索商标的全图。
本方案还会对拍照图像的分辨率进行判断,如果判断拍照图像的分辨率大于预设分辨率,则本方案会生成第一截取框,同时会对第一截取框进行初始定位使得第一截取框处于拍照图像的第一位置。其中,第一截取框用于截取拍照图像中部分图像,使得拍照图像的分辨率的分辨率满足预设分辨率的要求。
在一些实施例中,S11(所述对待检索的图像进行拍照得到拍照图像,若判断所述拍照图像的分辨率大于预设分辨率,则生成第一截取框,对所述第一截取框进行初始定位使得第一截取框处于拍照图像的第一位置)包括S111- S112:
S111,对所述拍照图像按照其中心像素点为原点进行坐标化处理,调取预设的第一截取框,确定所述第一截取框的截取框中心点。
为了对第一截取框进行定位,本方案会对拍照图像按照其中心像素点为原点进行坐标化处理,同时会调取预设的第一截取框,确定第一截取框的截取框中心点。
S112,将所述截取框中心点与所述拍照图像的中心像素点对齐设置,此时第一截取框完成初始定位使得第一截取框处于拍照图像的第一位置。
在确定了截取框中心点以及拍照图像的中心像素点之后,本方案会将截取框中心点与所述拍照图像的中心像素点对齐设置,此时,本方案完成了对第一截取框的初始定位,使得第一截取框处于拍照图像的第一位置。
S12,若接收到用户的确认信息,则将处于第一位置的第一截取框内的图像作为第一图像。
在初始定位后,如果接收到用户的确认信息,说明工作人员认为当前的图像是合适的,本方案会将处于第一位置的第一截取框内的图像作为第一图像。
S13,若接收到用户的截取框拖拽信息,则根据截取框拖拽信息将处于第一位置的第一截取框拖拽至第二位置,对所述第二位置进行自动修正,将处于第二位置的第一截取框内的图像作为第一图像;
在初始定位后,用户如果不满足当前得到的第一图像,可以拖拽第一截取框,如果检测到了用户的截取框拖拽信息,本方案会根据截取框拖拽信息将处于第一位置的第一截取框拖拽至第二位置,对第二位置进行自动修正,将处于第二位置的第一截取框内的图像作为第一图像。
S14,若判断基于文字识别技术识别到第一图像内具有第一文字信息,则基于第一文字信息对所述第一图像添加第一备注信息,并获取第一文字信息所对应的文字像素坐标集。
可以理解的是,在判断基于文字识别技术识别到第一图像内具有第一文字信息时,会利用第一文字信息对所述第一图像添加第一备注信息,同时,本方案会对第一文字信息进行定位,获取第一文字信息所对应的文字像素坐标集。
S2,在判断提取第一图像内的第一文字信息后,对第一图像中相应的第一文字信息进行删除得到第二图像,根据第二图像中满足要求的像素点,对第二图像进行二值化处理得到第三图像。
可以理解的是,在提取了第一图像内的第一文字信息后,不需要再对第一图像内的文字信息进行处理了,此时本方案会将第一图像中相应的第一文字信息进行删除得到第二图像,然后确定第二图像中满足要求的像素点,对第二图像进行二值化处理得到第三图像。
在一些实施例中,S2(所述在判断提取第一图像内的第一文字信息后,对第一图像中相应的第一文字信息进行删除得到第二图像,根据第二图像中满足要求的像素点,对第二图像进行二值化处理得到第三图像)包括S21- S23:
S21,获取第一图像与所述文字像素坐标集所对应的文字像素点,将所述文字像素点由当前像素值替换为预设像素值,以实现对第一图像中相应的第一文字信息进行删除得到第二图像。
本方案会采用坐标的方式对第一图像中的文字像素点进行定位,然后将文字像素点由当前像素值替换为预设像素值,以实现对第一图像中相应的第一文字信息进行删除得到第二图像。
其中,预设像素值可以是白色所对应的像素值,需要说明的是,本方案的第一图像的背景为白色,将文字像素点所对应的像素值调整为白色所对应的像素值,可以实现对文字的隐藏,从而实现对第一文字信息的删除。
S22,确定第二图像中在预设像素区间内的像素点为满足要求的像素点,将所有满足要求的像素点的像素值替换为黑色像素值。
本方案会确定第二图像中在预设像素区间内的像素点为满足要求的像素点,然后将所有满足要求的像素点的像素值替换为黑色像素值。
可以理解的是,第二图像中除了白色背景外,其余的颜色为商标图像所对应的颜色,可以是除了白色以为的红、黄、绿等颜色,本方案设置有对应多个颜色的预设像素区间,将所有的除了白色以为的红、黄、绿等颜色统一转换为黑色。
S23,将所有不位于预设像素区间内的像素点的像素值替换为白色像素值,以使第二图像实现二值化处理得到第三图像。
同时,本方案会将所有不位于预设像素区间内的像素点的像素值替换为白色像素值,以实现对第二图像的二值化处理,得到第三图像。
在上述实施例的基础上,S13(所述若接收到用户的截取框拖拽信息,则根据截取框拖拽信息将处于第一位置的第一截取框拖拽至第二位置,对所述第二位置进行自动修正,将处于第二位置的第一截取框内的图像作为第一图像),包括:
S131,根据截取框拖拽信息对第一截取框进行移动,使得第一截取框拖拽至第二位置,获取第一截取框在被拖拽至第二位置时,位于第一截取框内的拍照图像的所有像素点的第一像素值。
本方案会依据截取框拖拽信息对第一截取框进行移动,使得第一截取框拖拽至第二位置,然后在第一截取框在被拖拽至第二位置时,得到位于第一截取框内的拍照图像的所有像素点的第一像素值。
S132,确定第一像素值处于第一预设像素区间内的第一像素点得到第一像素点集合,提取第一像素点集合中的具有的极值像素点坐标。
本方案设置有第一预设像素区间,第一预设像素区间可以是黑色像素点所对应的区间,之后会确定第一像素值处于第一预设像素区间内的第一像素点,统计所有的第一像素点得到第一像素点集合,然后提取第一像素点集合中的具有的极值像素点坐标。可以理解的是,第一像素点集合所对应的像素点是商标图像所对应的像素点。
在得到第一像素点集合后,本方案会提取第一像素点集合中的具有的极值像素点坐标,其中,极值像素点坐标可以是第一像素点集合中代表最左、最右、最上和最下所对应的坐标。
S133,根据极值像素点坐标包括的极值X轴最大坐标、极值X轴最小坐标、极值Y轴最大坐标、极值Y轴最小坐标进行计算,得到修正坐标点。
在得到极值像素点坐标后,本方案会利用极值像素点坐标包括的极值X轴最大坐标、极值X轴最小坐标、极值Y轴最大坐标、极值Y轴最小坐标进行计算,得到修正坐标点。
在一些实施例中,S133(所述根据极值像素点坐标包括的极值X轴最大坐标、极值X轴最小坐标、极值Y轴最大坐标、极值Y轴最小坐标进行计算,得到修正坐标点)包括S1331-S1334:
S1331,根据极值像素点坐标包括的极值X轴最大坐标、极值X轴最小坐标进行计算得到修正坐标点的第一X轴坐标,根据极值Y轴最大坐标、极值Y轴最小坐标进行计算,得到修正坐标点的第一Y轴坐标。
例如,可以采用极值X轴最大坐标、极值X轴最小坐标之和的一半作为修正坐标点的X坐标,采用极值Y轴最大坐标、极值Y轴最小坐标之和的一半作为修正坐标点的Y坐标,得到修正坐标点。
S1332,确定小于第一X轴坐标的所有像素点得到第一像素点数量,确定大于第一X轴坐标的所有像素点得到第二像素点数量。
本方案会统计小于第一X轴坐标的所有像素点得到第一像素点数量,同时统计大于第一X轴坐标的所有像素点得到第二像素点数量。可以理解的是,像素点数量越多,说明商标图像所对应的区域也就越大。
S1333,确定小于第一Y轴坐标的所有像素点得到第三像素点数量,确定大于第一Y轴坐标的所有像素点得到第四像素点数量。
本方案会统计小于第一Y轴坐标的所有像素点得到第三像素点数量,同时统计大于第一Y轴坐标的所有像素点得到第四像素点数量。可以理解的是,像素点数量越多,说明商标图像所对应的区域也就越大。
S1334,根据所述第一像素点数量、第二像素点数量对第一X轴坐标进行调整,得到第二X轴坐标,根据所述第三像素点数量、第四像素点数量对第一Y轴坐标进行调整,得到第二Y轴坐标。
本方案可以以依据第一像素点数量、第二像素点数量对第一X轴坐标进行调整,得到第二X轴坐标,并依据第三像素点数量、第四像素点数量对第一Y轴坐标进行调整,得到第二Y轴坐标。
通过以下公式得到修正坐标点的第二X轴坐标和第二Y轴坐标,
Figure 370406DEST_PATH_IMAGE029
其中,
Figure 749435DEST_PATH_IMAGE002
为第一像素点数量,
Figure 81190DEST_PATH_IMAGE003
为第二像素点数量,
Figure 571077DEST_PATH_IMAGE004
为第二X轴坐标,
Figure 39099DEST_PATH_IMAGE005
为 极值X轴最大坐标,
Figure 854608DEST_PATH_IMAGE006
为极值X轴最小坐标,
Figure 532714DEST_PATH_IMAGE007
为数量归一化值,
Figure 701658DEST_PATH_IMAGE008
为X轴坐标权重值,
Figure 414400DEST_PATH_IMAGE009
为第二Y轴坐标,
Figure 509132DEST_PATH_IMAGE010
为极值Y轴最大坐标,
Figure 674534DEST_PATH_IMAGE011
为极值Y轴最小坐标,
Figure 771803DEST_PATH_IMAGE012
为第三像素 点数量,
Figure 479996DEST_PATH_IMAGE013
为第四像素点数量,
Figure 106150DEST_PATH_IMAGE014
为Y轴坐标权重值。
上述公式中,
Figure 758848DEST_PATH_IMAGE030
代表第一X轴坐标,当
Figure 535174DEST_PATH_IMAGE031
时,说明图像左边像素点数 量大于图像右边像素点数量,此时需要将第一X轴坐标向左调整,即对将第一X轴坐标进行 减小调整,
Figure 691349DEST_PATH_IMAGE032
代表需要减小的幅度,其中,第一像素点数量
Figure 894928DEST_PATH_IMAGE002
与第二像素点数量
Figure 34923DEST_PATH_IMAGE003
的差值
Figure 473994DEST_PATH_IMAGE033
越大,对应的调整幅度
Figure 389735DEST_PATH_IMAGE032
也就越大,其中,X轴坐标权重值
Figure 623271DEST_PATH_IMAGE008
可以是 工作人员预先设置的;当
Figure 125927DEST_PATH_IMAGE034
时,说明图像左边像素点数量小于图像右边像素点数量, 此时需要将第一X轴坐标向右调整,即对将第一X轴坐标进行增大调整,
Figure 368690DEST_PATH_IMAGE035
代表需 要增大的幅度。
Figure 499457DEST_PATH_IMAGE036
代表第一Y轴坐标,当
Figure 44839DEST_PATH_IMAGE037
时,说明图像下边像素点数量大于图像 上边像素点数量,此时需要将第一Y轴坐标向下调整,即对将第一Y轴坐标进行减小调整,
Figure 893846DEST_PATH_IMAGE038
代表需要减小的幅度,其中,第三像素点数量
Figure 550086DEST_PATH_IMAGE012
与第四像素点数量
Figure 800939DEST_PATH_IMAGE013
的差值
Figure 641856DEST_PATH_IMAGE039
越大,对应的调整幅度
Figure 617640DEST_PATH_IMAGE038
也就越大,其中,Y轴坐标权重值
Figure 936626DEST_PATH_IMAGE014
可以是工作人 员预先设置的;当
Figure 182931DEST_PATH_IMAGE040
时,说明图像下边像素点数量小于图像上边像素点数量,此时需 要将第一Y轴坐标向上调整,即对将第一Y轴坐标进行增大调整,
Figure 194749DEST_PATH_IMAGE041
代表需要增大 的幅度。
需要说明的是,本方案通过上述方式,可以对商标图像的内容中心进行定位,使得中心点(修正坐标点)位于商标图像内容的中心处,以此来实现对第一截取框的二次定位,使得所截取的图像内容较为居中。
S134,将所述第一截取框的截取框中心点与所述修正坐标点重合设置,以对第一截取框进行纠正调整,将纠正调整后的第一截取框拖拽所对应的位置作为最终的第二位置。
在重新确定了图像的中心(修正坐标点)后,本方案会对第一截取框进行二次定位调整,使得第一截取框的截取框中心点与所述修正坐标点重合设置。
S3,获取商标的图像数据库中预先配置的二值化的第四图像、以及第四图像所对应的第二备注信息,根据所述第三图像、第四图像、第一备注信息以及第二备注信息计算,得到第一图像与每一个第四图像的图像相似度系数。
本方案的商标的图像数据库中预先配置有二值化的第四图像、以及第四图像所对应的第二备注信息,可以理解的是,第四图像可以有多个,本方案对其不做限制。
在对第三图像处理完毕后,本方案可以对第三图像、第四图像、第一备注信息以及第二备注信息计算,得到第一图像与每一个第四图像的图像相似度系数。
在一些实施例中,S3(所述获取商标的图像数据库中预先配置的二值化的第四图像、以及第四图像所对应的第二备注信息,根据所述第三图像、第四图像、第一备注信息以及第二备注信息计算,得到第一图像与每一个第四图像的图像相似度系数)包括S31- S35:
S31,确定第三图像的第一起始像素点,根据第一起始像素点依次获取第三图像的像素值得到第三图像的图像指纹集合。
在进行相似度比对时,本方案首先会确定第三图像的第一起始像素点,其中,第一起始像素点可以是第三图像位于最左边位置的像素点,然后根据第一起始像素点依次获取第三图像的像素值,得到第三图像的图像指纹集合。
可以理解的是,第三图像的图像指纹集合代表第三图像的所有像素点的像素值。
S32,确定第四图像中与第一起始像素点坐标相对应的第二起始像素点,根据第二起始像素点依次获取第四图像的像素值得到第四图像的图像指纹集合。
本方案还会确定第四图像中与第一起始像素点坐标相对应的第二起始像素点,然后利用第二起始像素点依次获取第四图像的像素值得到第四图像的图像指纹集合。
可以理解的是,第四图像的图像指纹集合代表第四图像的所有像素点的像素值,且第三图像的图像指纹集合与第四图像的图像指纹集合中的坐标是一一对应的。
S33,确定第三图像的图像指纹集合、第四图像的图像指纹集合中相同像素点的数量,得到图像相似度子系数;
本方案会统计第三图像的图像指纹集合与第四图像的图像指纹集合中相同像素点的数量,得到图像相似度子系数,可以理解的是,相同像素点的数量越多,图像相似度子系数也就越大。
在一些实施例中,S33(所述确定第三图像的图像指纹集合、第四图像的图像指纹集合中相同像素点的数量,得到图像相似度子系数)包括S331- S332:
S331,统计第三图像的图像指纹集合、第四图像的图像指纹集合中具有相同坐标、相同像素值的像素点,得到相同像素点的数量。
本方案在确定相同像素点的数量时,会统计第三图像的图像指纹集合、第四图像的图像指纹集合中具有相同坐标、相同像素值的像素点,即坐标需要相同,且像素值也需要相同的像素点为本方案中的相同像素点。
S332,根据相同像素点的数量、图像指纹集合内像素点的总数量进行计算,得到图像相似度子系数。
可以理解的是,相同像素点的数量越多,图像相似度子系数也就越大。
S34,对所述第一备注信息以及第二备注信息分别进行文字识别,剔除第一备注信息以及第二备注信息中的无关文字得到第一关联文字和第二关联文字,确定第一关联文字和第二关联文字中相同的文字,得到文字相似度子系数。
本步骤是对文字进行比对,首先本方案会对第一备注信息以及第二备注信息分别进行文字识别,然后剔除第一备注信息以及第二备注信息中的无关文字得到第一关联文字和第二关联文字。
示例性的,第一备注信息为“喜气洋洋科技有限公司”,第二备注信息为“洋羊文化有限公司”,那么第一备注信息中的无关文字可以是“科技有限公司”,第二备注信息中的无关文字可以是“文化有限公司”。则得到的第一关联文字是“喜气”、“洋洋”,第二关联文字是“洋羊”。
在一些实施例中,S34(所述对所述第一备注信息以及第二备注信息分别进行文字识别,剔除第一备注信息以及第二备注信息中的无关文字得到第一关联文字和第二关联文字,确定第一关联文字和第二关联文字中相同的文字,得到文字相似度子系数)包括S341-S344:
S341,调取预先设置的无关信息对应表,所述无关信息对应表内包括多个无关文字,对第一备注信息以及第二备注信息分别进行分词处理得到相对应的第一分词和第二分词。
本方案设置有无关信息对应表,无关信息对应表内包括多个无关文字,无关文字例如是“科技有限公司”、“文化有限公司”、“有限公司”等等,本方案会对第一备注信息以及第二备注信息分别进行分词处理得到相对应的第一分词和第二分词。
示例性的, 对第一备注信息进行分词得到的第一分词可以是“喜气”、“洋洋”、“科技有限公司”。对第二备注信息进行分词得到的第二分词可以是 “洋羊”、“文化有限公司”。
S342,若判断第一备注信息以及第二备注信息中具有与无关信息对应表内无关词语所对应的第一分词和第二分词,则将相应的第一分词和第二分词由所述第一备注信息以及第二备注信息内删除。
示例性的,本方案可以将第一分词中的“科技有限公司”删除,将第二分词中的“文化有限公司”删除。
S343,统计第一分词和第二分词的第一数量和第二数量,将第一数量和第二数量中较少的数量作为待比对数量,依次获取待比对数量所对应的分词与非待比对数量所对应的分词一一比对,将待比对数量所对应的分词与最近的非待比对数量所对应的分词相关联。
本方案会统计第一分词和第二分词的第一数量和第二数量,然后找到一个较少的数量作为待比对数量,例如,第一分词数量为2个,第二分词数量为1个,那么本方案的待比对数量为1。
在确定待比对数量后,本方案会依次获取待比对数量所对应的分词与非待比对数量所对应的分词一一比对,将待比对数量所对应的分词与最近的非待比对数量所对应的分词相关联。
在一些实施例中,S343中的(所述依次获取待比对数量所对应的分词与非待比对数量所对应的分词一一比对,将待比对数量所对应的分词与最近的非待比对数量所对应的分词相关联)包括:
获取待比对数量所对应的分词,将相应的分词的字与非待比对数量所对应的分词的字一一比对,若判断比对后待比对数量所对应的分词与相应非待比对数量所对应的分词相同的字最多,则将相同的字最多的两个分词相关联。
示例性的,获取待比对数量所对应的分词为“洋羊”,然后将“洋羊”一一与“喜气”、“洋洋”进行比对,其中,“洋洋”与“洋羊”相同的字最多,本方案会将“洋洋”与“洋羊”建立关联。
S344,统计相关联的分词的数量、以及每个相关联的分词中相同字的数量,根据相关联的分词的数量、相同字的数量、第一数量和第二数量进行计算得到文字相似度子系数。
本方案会统计相关联的分词的数量,同时得到每个相关联的分词中相同字的数量,然后利用相关联的分词的数量、相同字的数量、第一数量和第二数量进行计算得到文字相似度子系数。可以理解的是,每个相关联的分词中相同字的数量越大,其对应的文字相似度子系数也就越高。
S35,根据所述图像相似度子系数、文字相似度子系数进行融合计算,得到第一图像与每一个第四图像的图像相似度系数。
本方案在得到图像相似度子系数和文字相似度子系数之后,会对图像相似度子系数和文字相似度子系数进行综合计算,来得到第一图像与每一个第四图像的图像相似度系数。
在一些实施例中,S35(所述根据所述图像相似度子系数、文字相似度子系数进行融合计算,得到第一图像与每一个第四图像的图像相似度系数)包括S351- S352:
S351,根据图像计算权重对图像相似度子系数进行加权处理得到图像子系数,根据文字计算权重对文字相似度子系数进行加权处理得到文字子系数。
本方案设置有图像计算权重和文字计算权重,利用图像计算权重对图像相似度子系数进行加权处理得到图像子系数,利用文字计算权重对文字相似度子系数进行加权处理得到文字子系数。在实际应用中,图像计算权重可以设置的大于文字计算权重,来提高图像维度的计算占比。
S352,对所述图像子系数和文字子系数进行融合计算得到第一图像与每一个第四图像的图像相似度系数,通过以下公式计算图像相似度系数,
Figure 752770DEST_PATH_IMAGE015
其中,
Figure 16392DEST_PATH_IMAGE016
为图像相似度系数,
Figure 976258DEST_PATH_IMAGE017
为相同像素点的数量,
Figure 34343DEST_PATH_IMAGE018
为图像指纹集合内像 素点的总数量,
Figure 345239DEST_PATH_IMAGE019
为图像计算权重,
Figure 271607DEST_PATH_IMAGE020
为相关联的分词的数量,
Figure 459880DEST_PATH_IMAGE021
为第一分词的第一数 量,
Figure 79080DEST_PATH_IMAGE022
为第二分词的第二数量,
Figure 611693DEST_PATH_IMAGE023
为分词数量的归一化值,
Figure 217118DEST_PATH_IMAGE024
为第
Figure 151576DEST_PATH_IMAGE025
个相关联的分词的相同 字的数量,
Figure 551464DEST_PATH_IMAGE026
为相关联的分词的上限值,
Figure 836952DEST_PATH_IMAGE027
为相同字的归一化值,
Figure 839543DEST_PATH_IMAGE028
为文字计算权重。
上述公式中,
Figure 503874DEST_PATH_IMAGE042
代表图像子系数,相同像素点的数量
Figure 464877DEST_PATH_IMAGE017
越多,对应的图像子 系数也就越大;
Figure 181920DEST_PATH_IMAGE043
代表相关联的分词的数量维度的子系数,相关联的分词的数量
Figure 253781DEST_PATH_IMAGE020
越大,对应的
Figure 162831DEST_PATH_IMAGE043
也就越大,
Figure 638943DEST_PATH_IMAGE044
代表相同字的数量维度的子系数,相关联的分 词的相同字的数量之和
Figure 899023DEST_PATH_IMAGE045
越大,对应的相同字的数量维度的子系数也就越大,
Figure 243417DEST_PATH_IMAGE046
代表文字子系数;其中,图像计算权重
Figure 147919DEST_PATH_IMAGE019
和文字计算权重
Figure 919566DEST_PATH_IMAGE028
可 以是工作人员预先设置的。
需要说明的是,本方案在得到图像子系数和文字子系数后,会依据图像计算权重和文字计算权重来对图像子系数和文字子系数进行融合,且融合过程中,图像计算权重和文字计算权重可以依据需求进行设置,灵活的调整不同维度的计算占比,更为符合用户的需求。
S4,根据所述图像相似度系数统计预设数量的第四图像所对应的商标,生成商标近似检索列表。
本方案通过S1-S3综合计算得到图像相似度系数后,会按照预设数量(例如100个)来筛选出对应的商标,呈现给用户。
参见图2,是本发明实施例提供的一种基于人工智能的检索***的结构示意图,该基于人工智能的检索***包括:
提取模块,用于获取待检索商标的第一图像,基于文字识别技术对所述第一图像进行文字提取得到第一文字信息,基于第一文字信息对所述第一图像添加第一备注信息;
二值化处理模块,用于在判断提取第一图像内的第一文字信息后,对第一图像中相应的第一文字信息进行删除得到第二图像,根据第二图像中满足要求的像素点,对第二图像进行二值化处理得到第三图像;
相似度计算模块,用于获取商标的图像数据库中预先配置的二值化的第四图像、以及第四图像所对应的第二备注信息,根据所述第三图像、第四图像、第一备注信息以及第二备注信息计算,得到第一图像与每一个第四图像的图像相似度系数;
生成模块,用于根据所述图像相似度系数统计预设数量的第四图像所对应的商标,生成商标近似检索列表。
本发明还提供一种存储介质,所述存储介质中存储有计算机程序,所述计算机程序被处理器执行时用于实现上述的各种实施方式提供的方法。
其中,存储介质可以是计算机存储介质,也可以是通信介质。通信介质包括便于从一个地方向另一个地方传送计算机程序的任何介质。计算机存储介质可以是通用或专用计算机能够存取的任何可用介质。例如,存储介质耦合至处理器,从而使处理器能够从该存储介质读取信息,且可向该存储介质写入信息。当然,存储介质也可以是处理器的组成部分。处理器和存储介质可以位于专用集成电路(Application Specific IntegratedCircuits,简称:ASIC)中。另外,该ASIC可以位于用户设备中。当然,处理器和存储介质也可以作为分立组件存在于通信设备中。存储介质可以是只读存储器(ROM)、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本发明还提供一种程序产品,该程序产品包括执行指令,该执行指令存储在存储介质中。设备的至少一个处理器可以从存储介质读取该执行指令,至少一个处理器执行该执行指令使得设备实施上述的各种实施方式提供的方法。
在上述终端或者服务器的实施例中,应理解,处理器可以是中央处理单元(英文:Central Processing Unit,简称:CPU),还可以是其他通用处理器、数字信号处理器(英文:Digital Signal Processor,简称:DSP)、专用集成电路(英文:Application SpecificIntegrated Circuit,简称:ASIC)等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (10)

1.基于人工智能的检索方法,其特征在于,包括:
获取待检索商标的第一图像,基于文字识别技术对所述第一图像进行文字提取得到第一文字信息,基于第一文字信息对所述第一图像添加第一备注信息;
在判断提取第一图像内的第一文字信息后,对第一图像中相应的第一文字信息进行删除得到第二图像,根据第二图像中满足要求的像素点,对第二图像进行二值化处理得到第三图像;
获取商标的图像数据库中预先配置的二值化的第四图像、以及第四图像所对应的第二备注信息,根据所述第三图像、第四图像、第一备注信息以及第二备注信息计算,得到第一图像与每一个第四图像的图像相似度系数;
根据所述图像相似度系数统计预设数量的第四图像所对应的商标,生成商标近似检索列表;
所述获取待检索商标的第一图像,基于文字识别技术对所述第一图像进行文字提取得到第一文字信息,基于第一文字信息对所述第一图像添加第一备注信息,包括:
对待检索商标的图像进行拍照得到拍照图像,若判断所述拍照图像的分辨率大于预设分辨率,则生成第一截取框,对所述第一截取框进行初始定位使得第一截取框处于拍照图像的第一位置;
若接收到用户的确认信息,则将处于第一位置的第一截取框内的图像作为第一图像;
若接收到用户的截取框拖拽信息,则根据截取框拖拽信息将处于第一位置的第一截取框拖拽至第二位置,对所述第二位置进行自动修正,将处于第二位置的第一截取框内的图像作为第一图像;
若判断基于文字识别技术识别到第一图像内具有第一文字信息,则基于第一文字信息对所述第一图像添加第一备注信息,并获取第一文字信息所对应的文字像素坐标集;
所述对待检索的图像进行拍照得到拍照图像,若判断所述拍照图像的分辨率大于预设分辨率,则生成第一截取框,对所述第一截取框进行初始定位使得第一截取框处于拍照图像的第一位置,包括:
对所述拍照图像按照其中心像素点为原点进行坐标化处理,调取预设的第一截取框,确定所述第一截取框的截取框中心点;
将所述截取框中心点与所述拍照图像的中心像素点对齐设置,此时第一截取框完成初始定位使得第一截取框处于拍照图像的第一位置。
2.根据权利要求1所述的基于人工智能的检索方法,其特征在于,
所述若接收到用户的截取框拖拽信息,则根据截取框拖拽信息将处于第一位置的第一截取框拖拽至第二位置,对所述第二位置进行自动修正,将处于第二位置的第一截取框内的图像作为第一图像,包括:
根据截取框拖拽信息对第一截取框进行移动,使得第一截取框拖拽至第二位置,获取第一截取框在被拖拽至第二位置时,位于第一截取框内的拍照图像的所有像素点的第一像素值;
确定第一像素值处于第一预设像素区间内的第一像素点得到第一像素点集合,提取第一像素点集合中的具有的极值像素点坐标;
根据极值像素点坐标包括的极值X轴最大坐标、极值X轴最小坐标、极值Y轴最大坐标、极值Y轴最小坐标进行计算,得到修正坐标点;
将所述第一截取框的截取框中心点与所述修正坐标点重合设置,以对第一截取框进行纠正调整,将纠正调整后的第一截取框拖拽所对应的位置作为最终的第二位置。
3.根据权利要求2所述的基于人工智能的检索方法,其特征在于,
所述根据极值像素点坐标包括的极值X轴最大坐标、极值X轴最小坐标、极值Y轴最大坐标、极值Y轴最小坐标进行计算,得到修正坐标点,包括:
根据极值像素点坐标包括的极值X轴最大坐标、极值X轴最小坐标进行计算得到修正坐标点的第一X轴坐标,根据极值Y轴最大坐标、极值Y轴最小坐标进行计算,得到修正坐标点的第一Y轴坐标;
确定小于第一X轴坐标的所有像素点得到第一像素点数量,确定大于第一X轴坐标的所有像素点得到第二像素点数量;
确定小于第一Y轴坐标的所有像素点得到第三像素点数量,确定大于第一Y轴坐标的所有像素点得到第四像素点数量;
根据所述第一像素点数量、第二像素点数量对第一X轴坐标进行调整,得到第二X轴坐标,根据所述第三像素点数量、第四像素点数量对第一Y轴坐标进行调整,得到第二Y轴坐标;
通过以下公式得到修正坐标点的第二X轴坐标和第二Y轴坐标,
Figure DEST_PATH_IMAGE002
其中,
Figure DEST_PATH_IMAGE004
为第一像素点数量,
Figure DEST_PATH_IMAGE006
为第二像素点数量,
Figure DEST_PATH_IMAGE008
为第二X轴坐标,
Figure DEST_PATH_IMAGE010
为极值X轴最大坐标,
Figure DEST_PATH_IMAGE012
为极值X轴最小坐标,
Figure DEST_PATH_IMAGE014
为数量归一化值,
Figure DEST_PATH_IMAGE016
为X轴坐标权重值,
Figure DEST_PATH_IMAGE018
为第二Y轴坐标,
Figure DEST_PATH_IMAGE020
为极值Y轴最大坐标,
Figure DEST_PATH_IMAGE022
为极值Y轴最小坐标,
Figure DEST_PATH_IMAGE024
为第三像素点数量,
Figure DEST_PATH_IMAGE026
为第四像素点数量,
Figure DEST_PATH_IMAGE028
为Y轴坐标权重值。
4.根据权利要求2所述的基于人工智能的检索方法,其特征在于,
所述在判断提取第一图像内的第一文字信息后,对第一图像中相应的第一文字信息进行删除得到第二图像,根据第二图像中满足要求的像素点,对第二图像进行二值化处理得到第三图像,包括:
获取第一图像与所述文字像素坐标集所对应的文字像素点,将所述文字像素点由当前像素值替换为预设像素值,以实现对第一图像中相应的第一文字信息进行删除得到第二图像;
确定第二图像中在预设像素区间内的像素点为满足要求的像素点,将所有满足要求的像素点的像素值替换为黑色像素值;
将所有不位于预设像素区间内的像素点的像素值替换为白色像素值,以使第二图像实现二值化处理得到第三图像。
5.根据权利要求4所述的基于人工智能的检索方法,其特征在于,
所述获取商标的图像数据库中预先配置的二值化的第四图像、以及第四图像所对应的第二备注信息,根据所述第三图像、第四图像、第一备注信息以及第二备注信息计算,得到第一图像与每一个第四图像的图像相似度系数,包括:
确定第三图像的第一起始像素点,根据第一起始像素点依次获取第三图像的像素值得到第三图像的图像指纹集合;
确定第四图像中与第一起始像素点坐标相对应的第二起始像素点,根据第二起始像素点依次获取第四图像的像素值得到第四图像的图像指纹集合;
确定第三图像的图像指纹集合、第四图像的图像指纹集合中相同像素点的数量,得到图像相似度子系数;
对所述第一备注信息以及第二备注信息分别进行文字识别,剔除第一备注信息以及第二备注信息中的无关文字得到第一关联文字和第二关联文字,确定第一关联文字和第二关联文字中相同的文字,得到文字相似度子系数;
根据所述图像相似度子系数、文字相似度子系数进行融合计算,得到第一图像与每一个第四图像的图像相似度系数。
6.根据权利要求5所述的基于人工智能的检索方法,其特征在于,
所述确定第三图像的图像指纹集合、第四图像的图像指纹集合中相同像素点的数量,得到图像相似度子系数,包括:
统计第三图像的图像指纹集合、第四图像的图像指纹集合中具有相同坐标、相同像素值的像素点,得到相同像素点的数量;
根据相同像素点的数量、图像指纹集合内像素点的总数量进行计算,得到图像相似度子系数。
7.根据权利要求6所述的基于人工智能的检索方法,其特征在于,
所述对所述第一备注信息以及第二备注信息分别进行文字识别,剔除第一备注信息以及第二备注信息中的无关文字得到第一关联文字和第二关联文字,确定第一关联文字和第二关联文字中相同的文字,得到文字相似度子系数,包括:
调取预先设置的无关信息对应表,所述无关信息对应表内包括多个无关文字,对第一备注信息以及第二备注信息分别进行分词处理得到相对应的第一分词和第二分词;
若判断第一备注信息以及第二备注信息中具有与无关信息对应表内无关词语所对应的第一分词和第二分词,则将相应的第一分词和第二分词由所述第一备注信息以及第二备注信息内删除;
统计第一分词和第二分词的第一数量和第二数量,将第一数量和第二数量中较少的数量作为待比对数量,依次获取待比对数量所对应的分词与非待比对数量所对应的分词一一比对,将待比对数量所对应的分词与最近的非待比对数量所对应的分词相关联;
统计相关联的分词的数量、以及每个相关联的分词中相同字的数量,根据相关联的分词的数量、相同字的数量、第一数量和第二数量进行计算得到文字相似度子系数。
8.根据权利要求7所述的基于人工智能的检索方法,其特征在于,
所述依次获取待比对数量所对应的分词与非待比对数量所对应的分词一一比对,将待比对数量所对应的分词与最近的非待比对数量所对应的分词相关联,包括:
获取待比对数量所对应的分词,将相应的分词的字与非待比对数量所对应的分词的字一一比对,若判断比对后待比对数量所对应的分词与相应非待比对数量所对应的分词相同的字最多;
则将相同的字最多的两个分词相关联。
9.根据权利要求8所述的基于人工智能的检索方法,其特征在于,
所述根据所述图像相似度子系数、文字相似度子系数进行融合计算,得到第一图像与每一个第四图像的图像相似度系数,包括:
根据图像计算权重对图像相似度子系数进行加权处理得到图像子系数,根据文字计算权重对文字相似度子系数进行加权处理得到文字子系数;
对所述图像子系数和文字子系数进行融合计算得到第一图像与每一个第四图像的图像相似度系数,通过以下公式计算图像相似度系数,
Figure DEST_PATH_IMAGE030
其中,
Figure DEST_PATH_IMAGE032
为图像相似度系数,
Figure DEST_PATH_IMAGE034
为相同像素点的数量,
Figure DEST_PATH_IMAGE036
为图像指纹集合内像素点的总数量,
Figure DEST_PATH_IMAGE038
为图像计算权重,
Figure DEST_PATH_IMAGE040
为相关联的分词的数量,
Figure DEST_PATH_IMAGE042
为第一分词的第一数量,
Figure DEST_PATH_IMAGE044
为第二分词的第二数量,
Figure DEST_PATH_IMAGE046
为分词数量的归一化值,
Figure DEST_PATH_IMAGE048
为第
Figure DEST_PATH_IMAGE050
个相关联的分词的相同字的数量,
Figure DEST_PATH_IMAGE052
为相关联的分词的上限值,
Figure DEST_PATH_IMAGE054
为相同字的归一化值,
Figure DEST_PATH_IMAGE056
为文字计算权重。
10.基于人工智能的检索***,其特征在于,包括:
提取模块,用于获取待检索商标的第一图像,基于文字识别技术对所述第一图像进行文字提取得到第一文字信息,基于第一文字信息对所述第一图像添加第一备注信息;
二值化处理模块,用于在判断提取第一图像内的第一文字信息后,对第一图像中相应的第一文字信息进行删除得到第二图像,根据第二图像中满足要求的像素点,对第二图像进行二值化处理得到第三图像;
相似度计算模块,用于获取商标的图像数据库中预先配置的二值化的第四图像、以及第四图像所对应的第二备注信息,根据所述第三图像、第四图像、第一备注信息以及第二备注信息计算,得到第一图像与每一个第四图像的图像相似度系数;
生成模块,用于根据所述图像相似度系数统计预设数量的第四图像所对应的商标,生成商标近似检索列表;
所述获取待检索商标的第一图像,基于文字识别技术对所述第一图像进行文字提取得到第一文字信息,基于第一文字信息对所述第一图像添加第一备注信息,包括:
对待检索商标的图像进行拍照得到拍照图像,若判断所述拍照图像的分辨率大于预设分辨率,则生成第一截取框,对所述第一截取框进行初始定位使得第一截取框处于拍照图像的第一位置;
若接收到用户的确认信息,则将处于第一位置的第一截取框内的图像作为第一图像;
若接收到用户的截取框拖拽信息,则根据截取框拖拽信息将处于第一位置的第一截取框拖拽至第二位置,对所述第二位置进行自动修正,将处于第二位置的第一截取框内的图像作为第一图像;
若判断基于文字识别技术识别到第一图像内具有第一文字信息,则基于第一文字信息对所述第一图像添加第一备注信息,并获取第一文字信息所对应的文字像素坐标集;
所述对待检索的图像进行拍照得到拍照图像,若判断所述拍照图像的分辨率大于预设分辨率,则生成第一截取框,对所述第一截取框进行初始定位使得第一截取框处于拍照图像的第一位置,包括:
对所述拍照图像按照其中心像素点为原点进行坐标化处理,调取预设的第一截取框,确定所述第一截取框的截取框中心点;
将所述截取框中心点与所述拍照图像的中心像素点对齐设置,此时第一截取框完成初始定位使得第一截取框处于拍照图像的第一位置。
CN202211269591.3A 2022-10-18 2022-10-18 基于人工智能的检索方法及*** Active CN115344738B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211269591.3A CN115344738B (zh) 2022-10-18 2022-10-18 基于人工智能的检索方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211269591.3A CN115344738B (zh) 2022-10-18 2022-10-18 基于人工智能的检索方法及***

Publications (2)

Publication Number Publication Date
CN115344738A true CN115344738A (zh) 2022-11-15
CN115344738B CN115344738B (zh) 2023-02-28

Family

ID=83957212

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211269591.3A Active CN115344738B (zh) 2022-10-18 2022-10-18 基于人工智能的检索方法及***

Country Status (1)

Country Link
CN (1) CN115344738B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108763380A (zh) * 2018-05-18 2018-11-06 徐庆 商标识别检索方法、装置、计算机设备和存储介质
US20190114505A1 (en) * 2016-04-14 2019-04-18 Ader Bilgisayar Hizmetleri Ve Ticaret A.S. Content based search and retrieval of trademark images
CN109670072A (zh) * 2018-11-01 2019-04-23 广州企图腾科技有限公司 一种基于间隔提取的商标相似度比较方法
CN110378350A (zh) * 2019-07-23 2019-10-25 中国工商银行股份有限公司 一种文字识别的方法、装置及***
CN112347284A (zh) * 2020-09-16 2021-02-09 华南师范大学 一种组合商标图像检索方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190114505A1 (en) * 2016-04-14 2019-04-18 Ader Bilgisayar Hizmetleri Ve Ticaret A.S. Content based search and retrieval of trademark images
CN108763380A (zh) * 2018-05-18 2018-11-06 徐庆 商标识别检索方法、装置、计算机设备和存储介质
CN109670072A (zh) * 2018-11-01 2019-04-23 广州企图腾科技有限公司 一种基于间隔提取的商标相似度比较方法
CN110378350A (zh) * 2019-07-23 2019-10-25 中国工商银行股份有限公司 一种文字识别的方法、装置及***
CN112347284A (zh) * 2020-09-16 2021-02-09 华南师范大学 一种组合商标图像检索方法

Also Published As

Publication number Publication date
CN115344738B (zh) 2023-02-28

Similar Documents

Publication Publication Date Title
CN108960211B (zh) 一种多目标人体姿态检测方法以及***
CN110569731B (zh) 一种人脸识别方法、装置及电子设备
CN109635686B (zh) 结合人脸与外观的两阶段行人搜索方法
CN110866466B (zh) 一种人脸识别方法、装置、存储介质和服务器
CN111709313B (zh) 基于局部和通道组合特征的行人重识别方法
EP1530157A1 (en) Image matching system using 3-dimensional object model, image matching method, and image matching program
CN107423306B (zh) 一种图像检索方法及装置
CN110008943B (zh) 一种图像处理方法及装置、一种计算设备及存储介质
CN111930985A (zh) 图像检索方法、装置、电子设备及可读存储介质
Timmerman et al. Video camera identification from sensor pattern noise with a constrained convnet
CN111459922A (zh) 用户识别方法、装置、设备及存储介质
CN110245573A (zh) 一种基于人脸识别的签到方法、装置及终端设备
CN115424290A (zh) 人体姿态估计方法、装置、终端及计算机可读存储介质
Feng et al. A novel saliency detection method for wild animal monitoring images with WMSN
CN110781195B (zh) 一种兴趣点信息更新的***、方法和装置
CN111259792A (zh) 基于dwt-lbp-dct特征的人脸活体检测方法
CN111476070A (zh) 图像处理方法、装置、电子设备以及计算机可读存储介质
CN115344738B (zh) 基于人工智能的检索方法及***
CN116258906A (zh) 一种对象识别方法、特征提取模型的训练方法及装置
CN112214639B (zh) 视频筛选方法、视频筛选装置及终端设备
CN113065559B (zh) 图像比对方法、装置、电子设备及存储介质
CN111402281B (zh) 一种书籍边缘检测方法及装置
CN115223022A (zh) 一种图像处理方法、装置、存储介质及设备
CN112101479B (zh) 一种发型识别方法及装置
WO2017143979A1 (zh) 图像的检索方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20240411

Address after: Room 505, 5th Floor, Building 4, No. 38 Linfeng Second Road, Haidian District, Beijing, 100089

Patentee after: BEIJING ZHIGUO TECHNOLOGY CO.,LTD.

Country or region after: China

Address before: 226010 908, Building C, Entrepreneurship Outsourcing Center, Nantong Economic and Technological Development Zone, Jiangsu Province

Patentee before: Nantong Zhiguo Technology Co.,Ltd.

Country or region before: China

TR01 Transfer of patent right