CN114443928A - 一种网络文本数据爬虫方法与*** - Google Patents

一种网络文本数据爬虫方法与*** Download PDF

Info

Publication number
CN114443928A
CN114443928A CN202210088213.9A CN202210088213A CN114443928A CN 114443928 A CN114443928 A CN 114443928A CN 202210088213 A CN202210088213 A CN 202210088213A CN 114443928 A CN114443928 A CN 114443928A
Authority
CN
China
Prior art keywords
text
item
website
target
list
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210088213.9A
Other languages
English (en)
Other versions
CN114443928B (zh
Inventor
赵尔平
王禹皓
张雅坤
王通辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xizang Minzu University
Original Assignee
Xizang Minzu University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xizang Minzu University filed Critical Xizang Minzu University
Priority to CN202210088213.9A priority Critical patent/CN114443928B/zh
Publication of CN114443928A publication Critical patent/CN114443928A/zh
Application granted granted Critical
Publication of CN114443928B publication Critical patent/CN114443928B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/951Indexing; Web crawling techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9532Query formulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本发明公开了一种网络文本数据爬虫方法与***。该方法包括:将目标关键词输入爬虫***的关键词检索栏,爬虫***自动调用搜索引擎得到搜索结果页面;对搜索结果页面中的条目网址进行解析,根据解析结果将属于设定网址类型的条目网址删除,得到目标对象列表;根据目标关键词与目标对象列表中描述文本的关联度,对目标对象列表中删除后的条目网址进行过滤;采用网页解析库解析过滤后的条目网址对应的网页,得到每个网页的文本内容列表,并根据文本概率分布和文本长度对文本内容列表中的文本内容进行过滤;根据目标关键词对过滤后的文本内容列表中文本内容的段落和句子进行筛选,得到目标关键词的网络文本数据。本发明能提高爬取精度和爬取效率。

Description

一种网络文本数据爬虫方法与***
技术领域
本发明涉及网络爬虫技术领域,特别是涉及一种网络文本数据爬虫方法与***。
背景技术
网络爬虫,又称网页蜘蛛(web crawler),是按照一定的规则来自动抓取互联网中信息的程序或脚本。现如今,万维网中存储有海量信息,如何有效地提取这些信息以及如何利用这些信息成为一个重大挑战。网络爬虫具体通过模仿浏览器访问网络资源,进而利用正则表达式、XPath等数据提取库,以及具体规则自动获取网页中特定目标信息。网络爬虫目前在搜索引擎、舆论监控、数据分析等方面应用广泛。
目前,网络文本数据爬虫方法有如下几种:1、用于从多域收集数据的方法、装置和计算机程序,其实现步骤包括:步骤一、从可通过搜索引擎访问的通用网络收集数据;步骤二、从无法通过通用网络浏览器访问但可通过预设特定软件访问的暗网站点收集数据;以及步骤三、将所收集到的数据以预设格式进行标准化,并且生成针对所收集到的数据的元数据。2、基于PageRank算法的医疗数据爬虫方法及***,其实现步骤包括:步骤一、用户根据需要输入要爬取的医疗关键词;步骤二、计算网页时间因子及潜在相关性因子;步骤三、计算得到第一轮PR值,并临时存入数据库中;步骤四、对各网页中的超链接进行权重计算;计算得到第二轮PR值,并更新数据库;步骤五、比较PR值大小,获取PR值最大的N个网页;步骤六、输出PR值最大的N个网页。有效的解决传统通用爬虫算法偏重旧网页、主题漂移和偏重综合性网页的缺陷,可以高效、准确的爬取医疗数据网页。3、基于Chrome插件的爬虫方法、装置、计算机设备和存储介质,其实现步骤包括:步骤一、向任务调度中心请求爬虫任务;步骤二、根据所述爬虫任务请求对应的爬虫标注模板,所述爬虫标注模板预先对目标网页进行模板标注得到;步骤三、启动Chrome插件,由所述Chrome插件根据所述爬虫标注模板中标注到的网页元素进行爬虫操作。采用本方法能够提高爬虫采集的工作效率。4、基于网络爬虫的文本信息爬虫方法,其实现步骤包括:步骤一、通过服务器获取网络爬虫任务的配置文件和第一文本;步骤二、所述服务器根据所述配置文件开启网络URL信息爬取,并将爬取的信息整合为待处理信息;步骤三、所述服务器对所述待处理信息进行查重及删除重复内容处理后,得到第二文本;步骤四、所述服务器计算第一文本与第二文本之间的相似度,若相似度超出预设阈值,则输出第二文本。该方法基于网络爬虫进行信息获取,并针对第一文本和第二文本的相似度判定本次爬取的信息是否符合要求,提高了信息爬取的效率。5、动态网页爬虫***,其实现步骤包括:步骤一、获取URL库,对URL库进行聚类分析,若存在聚类则进行步骤二,若不存在聚类结束;步骤二、从聚类中至少抽取一个随机抽取样本URL;步骤三、分别采用脚本解析、渲染或采用脚本解析与渲染混合的方式对URL进行爬取;步骤四、记录爬取信息的完整度、爬取时间、资源消耗等信息,通过优先算法选出最优爬虫方案,使用最优方案爬取聚类中的所有动态网页;步骤五、处理爬取信息,并执行步骤一。6、网络爬虫爬取路径的展示方法和装置,其实现步骤包括:步骤一、获取网络爬虫的网页节点的标识信息,以及网页节点的爬取顺序;步骤二、根据网页节点的标识信息和网页节点的爬取顺序,生成网页之间的层级关系;步骤三、根据网页节点的标识信息和网页节点的之间的层级关系,生成爬取路径数据,并将爬取路径数据请求发送至服务器;步骤四、接收服务器发送的爬取路径数据,将爬取路径数据的数据格式转换为适配于前端框架的数据格式;步骤五、通过前端框架,展示所述适配于前端框架的数据格式的爬行路径数据。7、基于网络爬虫的数据处理方法、***及平台,其实现步骤包括:步骤一、通过获取用户输入的网页爬虫指令;步骤二、网页爬虫指令包括目标网页信息和爬取对象集合,获取与目标网页信息和爬取对象集合对应的目标爬虫数据;步骤三、将目标爬虫数据保存至目标分布式保存节点中。8、基于XPath的爬虫目标定位方法,其实现步骤包括:步骤一、加载网址信息,获取网址对应的网页;步骤二、根据监控位置现有内容,找到其在网页宙的相对位置;步骤三、将网页进行分块,每块网页中包含监控位置内容;步骤四、通过人机交互确定监控范围。
上述网络文本数据爬虫技术存在如下缺点:1、数据来源单一,往往是以某一网站为根目录爬取其中页面的内容信息,大大降低获取到的网络文本数据量,爬取精度不高。同时还会对一些图片、视频、地图等无用网页内容进行处理,降低了数据爬取的效率。
发明内容
基于此,本发明实施例提供一种网络文本数据爬虫方法与***,以提高爬取精度和爬取效率。
为实现上述目的,本发明提供了如下方案:
一种网络文本数据爬虫方法,包括:
获取目标关键词的搜索结果页面;所述搜索结果页面是将所述目标关键词输入爬虫***的关键词搜索栏,并由所述爬虫***自动调用搜索引擎得到的;所述搜索结果页面包括至少一个条目网址和对应的描述文本;
对所述搜索结果页面中的每个所述条目网址进行解析,并根据解析结果将属于设定网址类型的条目网址删除,得到目标对象列表;所述目标对象列表用于存储删除后的条目网址和对应的描述文本;
根据所述目标关键词与所述目标对象列表中描述文本的关联度,对所述目标对象列表中删除后的条目网址进行过滤,得到过滤后的条目网址;
采用网页解析库对所述过滤后的条目网址对应的网页进行解析,得到每个网页的文本内容列表,并根据文本概率分布和文本长度对所述文本内容列表中的文本内容进行过滤,得到过滤后的文本内容列表;
根据所述目标关键词对所述过滤后的文本内容列表中文本内容的段落和句子进行筛选,由筛选后的文本内容确定所述目标关键词的网络文本数据。
可选的,所述采用网页解析库对所述过滤后的条目网址对应的网页进行解析,得到每个网页的文本内容列表,并根据文本概率分布和文本长度对所述文本内容列表中的文本内容进行过滤,得到过滤后的文本内容列表,具体包括:
采用BeautifulSoup库中获取文本的方法得到所述过滤后的条目网址对应的网页中所有标签中的全部文本内容;
将所述全部文本内容按空格符划分,并将划分后的文本内容按照在网页中的先后顺序保存在文本内容列表中;
根据所述文本内容列表中划分后的文本内容的重要性的分布概率计算需删除文本的项数K;
将所述文本内容列表中的头部前K项文本内容和尾部后K项文本内容删除,得到概率分布筛选后的文本内容列表;
将所述概率分布筛选后的文本内容列表中文本长度小于设定最短长度的文本内容删除,得到过滤后的文本内容列表。
可选的,所述根据所述目标关键词对所述过滤后的文本内容列表中文本内容的段落和句子进行筛选,由筛选后的文本内容确定所述目标关键词的网络文本数据,具体包括:
将所述过滤后的文本内容列表中文本内容中包含所述目标关键词的段落筛选出来,得到筛选后的文本段落;
将所述筛选后的文本段落中包含所述目标关键词的句子筛选出来,得到筛选后的关键词句子;
将所述筛选后的关键词句子确定为所述目标关键词的网络文本数据。
可选的,所述对所述搜索结果页面中的每个所述条目网址进行解析,并根据解析结果将属于设定网址类型的条目网址删除,得到目标对象列表,具体包括:
将所述搜索结果页面中的每个所述条目网址和对应的描述文本存储在一个Item对象中;
由所有的Item对象构建初始对象列表;
对所述初始对象列表中的Item对象的属性进行解析,若所述Item对象的网址属性中包含设定标识字段,则确定所述Item对象中的条目网址的类型属于设定网址类型;所述设定标识字段包括图片、地图、音乐和视频;所述设定网址类型包括图片类型、地图类型、音乐类型和视频类型;
将属于设定网址类型的条目网址所属的Item对象从所述初始对象列表中删除,得到目标对象列表。
可选的,所述根据所述目标关键词与所述目标对象列表中描述文本的关联度,对所述目标对象列表中删除后的条目网址进行过滤,得到过滤后的条目网址,具体包括:
计算所述目标关键词与所述目标对象列表中描述文本的关联度,所述关联度为
Figure BDA0003488042970000051
其中,R表示关联度;Sk表示目标关键词的字数;SC表示条目网址对应的描述文本的字数;t表示目标关键词在描述文本中出现的次数;
根据所述关联度和关联度阈值对所述目标对象列表中删除后的条目网址进行过滤,得到过滤后的条目网址。
本发明还提供了一种网络文本数据爬虫***,包括:
搜索模块,用于获取目标关键词的搜索结果页面;所述搜索结果页面是将所述目标关键词输入爬虫***的关键词搜索栏,并由所述爬虫***自动调用搜索引擎得到的;所述搜索结果页面包括至少一个条目网址和对应的描述文本;
第一解析模块,用于对所述搜索结果页面中的每个所述条目网址进行解析,并根据解析结果将属于设定网址类型的条目网址删除,得到目标对象列表;所述目标对象列表用于存储删除后的条目网址和对应的描述文本;
关联度计算模块,用于根据所述目标关键词与所述目标对象列表中描述文本的关联度,对所述目标对象列表中删除后的条目网址进行过滤,得到过滤后的条目网址;
第二解析模块,用于采用网页解析库对所述过滤后的条目网址对应的网页进行解析,得到每个网页的文本内容列表,并根据文本概率分布和文本长度对所述文本内容列表中的文本内容进行过滤,得到过滤后的文本内容列表;
筛选模块,用于根据所述目标关键词对所述过滤后的文本内容列表中文本内容的段落和句子进行筛选,由筛选后的文本内容确定所述目标关键词的网络文本数据。
可选的,所述第二解析模块,具体包括:
文本内容获取单元,用于采用BeautifulSoup库中获取文本的方法得到所述过滤后的条目网址对应的网页中所有标签中的全部文本内容;
文本划分单元,用于将所述全部文本内容按空格符划分,并将划分后的文本内容按照在网页中的先后顺序保存在文本内容列表中;
删除项数计算单元,用于根据所述文本内容列表中划分后的文本内容的重要性的分布概率计算需删除文本的项数K;
重要内容删选单元,用于将所述文本内容列表中的头部前K项文本内容和尾部后K项文本内容删除,得到概率分布筛选后的文本内容列表;
短文本过滤单元,用于将所述概率分布筛选后的文本内容列表中文本长度小于设定最短长度的文本内容删除,得到过滤后的文本内容列表。
可选的,所述筛选模块,具体包括:
段落筛选单元,用于将所述过滤后的文本内容列表中文本内容中包含所述目标关键词的段落筛选出来,得到筛选后的文本段落;
句子筛选单元,用于将所述筛选后的文本段落中包含所述目标关键词的句子筛选出来,得到筛选后的关键词句子;
网络文本数据确定单元,用于将所述筛选后的关键词句子确定为所述目标关键词的网络文本数据。
可选的,所述第一解析模块,具体包括:
Item对象构建单元,用于将所述搜索结果页面中的每个所述条目网址和对应的描述文本存储在一个Item对象中;
初始对象列表构建单元,用于由所有的Item对象构建初始对象列表;
属性解析单元,用于对所述初始对象列表中的Item对象的属性进行解析,若所述Item对象的网址属性中包含设定标识字段,则确定所述Item对象中的条目网址的类型属于设定网址类型;所述设定标识字段包括图片、地图、音乐和视频;所述设定网址类型包括图片类型、地图类型、音乐类型和视频类型;
网址类型过滤单元,用于将属于设定网址类型的条目网址所属的Item对象从所述初始对象列表中删除,得到目标对象列表。
可选的,关联度计算模块,具体包括:
关联度计算单元,用于计算所述目标关键词与所述目标对象列表中描述文本的关联度,所述关联度为
Figure BDA0003488042970000061
其中,R表示关联度;Sk表示目标关键词的字数;SC表示条目网址对应的描述文本的字数;t表示目标关键词在描述文本中出现的次数;
网址过滤单元,用于根据所述关联度和关联度阈值对所述目标对象列表中删除后的条目网址进行过滤,得到过滤后的条目网址。
与现有技术相比,本发明的有益效果是:
本发明实施例提出了一种网络文本数据爬虫方法与***,将目标关键词输入爬虫***的关键词搜索栏,爬虫***自动调用搜索引擎得到搜索结果页面,对于搜索结果页面中众多条目网址进行网址类型过滤、目标关键词与描述文本关联度过滤,最终从搜索结果页面中获取对关键词贡献价值高的网址,解决了当前爬虫数据来源单一和对链接的无差别获取的问题,面向搜索引擎扩大了数据获取的范围,网址过滤可以得到高价值网址进而提升数据爬取的精度和爬取速度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的网络文本数据爬虫方法的流程图;
图2为本发明实施例提供的网络文本数据爬虫效果图;
图3为本发明实施例提供的网络文本数据爬虫***的结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的之一是面向搜索引擎对目标关键词的搜索结果页面来获取网址,获取到的大量的不同网址可以扩大数据的来源,同时使用了网址类型过滤和关键词与描述文本的关联度过滤来对网址进行筛选,进而获取到高价值的网址,用于文本数据的爬取。
本发明目的之二是提出面向网页文本分析及过滤的文本爬虫方法,在进行网页信息爬取时,不再受限于特定的网页结构和特定标签,可以在所有类型网页的全部标签进行过滤、筛选,爬取有效文本内容。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1为本发明实施例提供的网络文本数据爬虫方法的流程图。
参见图1,本实施例的网络文本数据爬虫方法,包括:
步骤101:获取目标关键词的搜索结果页面;所述搜索结果页面是将所述目标关键词输入爬虫***的关键词搜索栏,并由所述爬虫***自动调用搜索引擎得到的;所述搜索结果页面包括至少一个条目网址和对应的描述文本。具体的:
为了方便用户使用爬虫***对大规模的网络文本数据进行爬取,本实施例使用前后端结合的方式构建网络数据爬虫***,使用Python作为开发语言,借助Django框架实现爬虫***开发。
首先用户需要在爬虫***的关键词检索栏中输入目标关键词,点击“确定”后,爬虫***利用百度搜索引擎的搜索规则,将目标关键词作为参数拼接到网址中,例如搜索的目标关键词是牦牛,就是将牦牛和起始条目序号按照一定规则设置为网址参数生成搜索结果页面第一页的第一个条目网址(www.baicu.com/s?wd=牦牛&pn=0),其中wd参数对应目标关键词,pn参数对应搜索结果页面中起始条目序号,pn从零开始计数。pn计算公式为:
pn=(p-1)*rn (1)
其中,p为当前页码数,rn为搜索引擎的每个搜索结果页面包含的搜索数目。
爬虫***的request模块使用get方法对生成的网址发起请求,会获取到目标关键词的搜索结果第一页的页面。进而根据后续步骤来对该页面中的每个条目的网址进行筛选和存储。处理完当前页后,爬虫***会利用公式(1)对pn参数进行修改,例如百度搜索引擎中rn值为10,访问第二页时需要根据公式(1)计算pn值为10,所以***将网址自动变更为(https://www.***.com/s?wd=牦牛&pn=10),进而开始对搜索结果第二页面信息进行处理。
步骤102:对所述搜索结果页面中的每个所述条目网址进行解析,并根据解析结果将属于设定网址类型的条目网址删除,得到目标对象列表;所述目标对象列表用于存储删除后的条目网址和对应的描述文本。
所述步骤102,具体包括:
将所述搜索结果页面中的每个所述条目网址和对应的描述文本存储在一个Item对象中;由所有的Item对象构建初始对象列表;对所述初始对象列表中的Item对象的属性进行解析,若所述Item对象的网址属性中包含设定标识字段,则确定所述Item对象中的条目网址的类型属于设定网址类型;所述设定标识字段包括图片、地图、音乐和视频;所述设定网址类型包括图片类型、地图类型、音乐类型和视频类型;将属于设定网址类型的条目网址所属的Item对象从所述初始对象列表中删除,得到目标对象列表。
在实际应用中,步骤102的具体实现过程为:
由于搜索引擎是面向全网,搜索结果中包含多种类型网址,而图片、地图、音乐和视频等网页中不存在需要爬取的文本数据,所以首先需要将搜索结果页面中这些类型网址过滤掉,获取有价值的网址。通常这些类型网址中包含类型标识,例如图片类型网址有image字段,地图类型的网址中会包含map字段,视频类型的网址中会包含video或者tv或者vid字段。为此,首先使用XPath的路径表达式获取搜索结果页面中每个条目,对于每个条目继续使用XPath获取其对应的网址及其描述文本。例如使用路径表达式“//*/div[@class="result c-container new-pmd”和“//*/div[@class="result-op c-containerxpath-log new-pmd”来获取百度搜索结果页面中每个条目,使用“./h3/a/@href”来获取条目对应的网址,使用“.//div[@class="c-abstract"]”来获取该条目的描述文本。将每个条目的网址和描述文本信息分别暂存于一个Item对象中,Item对象包含三个属性num、url、abstract,分别对应条目的序号、网址和描述文本。所有条目的Item对象构建List<Item>列表。***逐一处理List<Item>列表中每项Item,如果解析到某项Item的url属性中包含map或者video、tv、vid或者image等标识字段就将该项Item删掉,得到过滤掉无价值的图片、视频、地图和音乐等的条目网址,最终的List<Item>列表(目标对象列表)保存的是滤除图片、视频、地图和音乐等条目后的网址和描述文本。避免爬虫***处理这些网站内容的过程,从而提高爬虫***效率。
步骤103:根据所述目标关键词与所述目标对象列表中描述文本的关联度,对所述目标对象列表中删除后的条目网址进行过滤,得到过滤后的条目网址。
步骤103,具体包括:
计算所述目标关键词与所述目标对象列表中描述文本的关联度,所述关联度计算公式为
Figure BDA0003488042970000101
其中,R表示关联度;Sk表示目标关键词的字数;SC表示条目网址对应的描述文本的字数;t表示目标关键词在描述文本中出现的次数。
根据所述关联度和关联度阈值对所述目标对象列表中删除后的条目网址进行过滤,得到过滤后的条目网址。
在实际应用中,步骤103的具体实现过程为:
在经过网址类型过滤后,为进一步获取高价值搜索目标,本实施例引入目标关键词与其描述文本关联程度特征,利用关联度阈值Rt进一步过滤无效网址,关联度阈值Rt的取值为上述公式(2)中t=1时计算得到的关联度的值。一般搜索引擎允许网站或网页的描述文本字数在120字以内,本实施例基于描述文本中包含目标关键词则它的网页文本中一定包含目标关键词,相反描述文本中无目标关键词则其网页文本中一定不存在目标关键词这个机理。按照这个机理,采用上述公式(2)计算目标关键词与描述文本之间的关联度。当目标关键词的字数在描述文本中占比例较高时,表示描述文本与目标关键词关联度越大,即该网页内容更有价值。逐一取出List<Item>列表中每个Item对象中的描述文本,利用公式(2)计算目标关键词与其描述文本关联度,将关联度小于关联度阈值Rt的Item对象从List<Item>列表中删除,实现网址进一步过滤,保留较高价值的条目网址。使得爬虫***不用具体分析搜索条目的网页内容就能将无效条目过滤掉,使得爬虫***处理效率更高。
步骤104:采用网页解析库对所述过滤后的条目网址对应的网页进行解析,得到每个网页的文本内容列表,并根据文本概率分布和文本长度对所述文本内容列表中的文本内容进行过滤,得到过滤后的文本内容列表。
所述步骤104,具体包括:
采用BeautifulSoup库中获取文本的方法得到所述过滤后的条目网址对应的网页中所有标签中的全部文本内容;将所述全部文本内容按空格符划分,并将划分后的文本内容按照在网页中的先后顺序保存在文本内容列表中;根据所述文本内容列表中划分后的文本内容的重要性的分布概率计算需删除文本的项数K,即非重要文本的项数;将所述文本内容列表中的头部前K项文本内容和尾部后K项文本内容删除,得到概率分布筛选后的文本内容列表,此时按文本概率分布筛选出了网页重要内容。将所述概率分布筛选后的文本内容列表中文本长度小于设定最短长度(最短句子长度)的文本内容删除,得到过滤后的文本内容列表,此时完成了短文本过滤。其中,BeautifulSoup库是一个高效的网页解析库,支持不同的解析器,比如,对HTML解析、对XML解析以及对HTML5解析。
在实际应用中,步骤104的具体实现过程为:
(1)按文本概率分布筛选网页重要内容
通过不同网页分析发现不同网页主要文本内容存在于不同HTML标签之中,甚至不同网页中相同HTML标签的id、class等属性定义的规则不同,所以对于不同网页不能通过固定标签类型或标签id、class属性限定爬取哪些标签中的文本信息,否则会导致一些网页中爬不到文本数据、或爬到很多与目标关键词无关的文本数据,降低爬虫效果。针对这个问题,本实施例经过对大量网页分析发现网页重要文本内容与其在网页中的分布位置有关,既文本越靠近网页的中心位置重要性越高,越远离中心位置文本重要性越小。实践证明大多数网页的头部和尾部是导航栏、广告或者版权等信息,网页头部和尾部文本位置距离网页中心位置远,它们不是爬虫***所要的目标文本。网页文本内容重要性符合正态分布,文本重要性的正态分布公式为:
X~N(μ,σ2) (3)
其中μ是重要性的均值,σ是重要性的标准差。进一步对文本重要性的正态分布进行标准化,将文本重要性变量减去其均值后除以其标准差转化成标准的正态分布,如公式(4)所示:
Figure BDA0003488042970000111
本实施例研究发现重要文本内容在网页中位置不仅符合正态分布规律,而且位置分布在两个标准差的范围之内的概率达到96.6%时爬取的目标文本质量最佳。重要文本的位置分布概率计算公式为公式(5):
P(μ-2σ)<x<(μ+2σ)=96.6% (5)
为了去除这些网页首尾部的非重要文本,首先要获取网页中的所有文本,发明利用BeautifulSoup(HTML解析器)解析网页HTML文件,利用BeautifulSoup中的get_text()方法可以获取网页中所有标签中的全部文本内容,不同标签里的文本内容之间会用空格符标记,同一标签里的不同段落文本之间用换行符标记。然后将全部文本按空格符划分,按它们在网页中的先后顺序保存在文本内容列表textList之中。接着根据文本重要性的分布概率计算出textList列表中头部和尾部非重要文本的项数,非重要文本的项数即需删除文本的项数K的计算公式如公式(6):
Figure BDA0003488042970000121
其中S为文本内容列表textList的总项数,即列表的长度;P(X)为文本重要性在两个标准差之内的概率值,即96.6%;K表文本内容列表textList的头部和尾部的非重要文本的项数,即需删除文本的项数。textList列表的头部和尾部K项为非重要文本,将这2K项从textList列表中删除,保留重要文本项。例如对于网页A中经过解析得到textList列表项数是236,按照网页文本在列表中的顺序,导航栏和版权信息文本存储在textList列表的前几项和后几项。那么根据公式(6)的计算需要在textList前、后分别删除4项内容。
(2)短文本过滤
在去除textList中导航栏和版权信息等无关文本内容之后,textList的一些项中还存在不能构成句子的短文本,例如在HTML中<ahref=”xxx”>攻略</a>、<strong>最新线路</strong>、<buttontype="button">下载</button>等标签中的内容,由于其并不在网页首尾部,所以按步骤四处理后仍存在于textList之中,这些文本由于无法构成一个完整的句子,不符合本实施例的爬取目标,所以这些文本需要过滤掉。
因为一个完整的句子中至少包含主语、谓语和宾语三个组成成分,在此将设定的目标关键词看作是句子中一个成分,那么构成一个完整的句子还需要两个成分,按照汉语规则其余两个成分至少需要一个汉字充当,所以设定最短长度的计算公式如公式(7)所示:
L=Ks+2 (7)
其中Ks为目标关键词的字数。通过计算得到设定最短长度L,并使用L的值对textList文本长度小于L的项进行过滤。
步骤105:根据所述目标关键词对所述过滤后的文本内容列表中文本内容的段落和句子进行筛选,由筛选后的文本内容确定所述目标关键词的网络文本数据。
步骤105,具体包括:
(1)目标关键词优先的文本段落筛选
将所述过滤后的文本内容列表中文本内容中包含所述目标关键词的段落筛选出来,得到筛选后的文本段落。具体为:
经过短文本过滤后的textList中存在不含目标关键词的项,这些项首先要被过滤掉。经过第四步、第五步筛选后textList中每一项文本段落都由多条句子构成,这些句子之间被句号、感叹号、问号等标点符号自然断开。如果将每条句子是否带有目标关键词作为真或者假条件来推理整个文本段落是否包含目标关键词,那么这些句子之间存在逻辑或关系。只需其中一条句子带有目标关键词,便可推断该文本段落包含目标关键词,相反当所有句子都不带目标关键词时才可断定整个文本段落无目标关键词,需要过滤掉。目标关键词优先的文本段落筛选是指处理文本段落时只要第一条句子中带有目标关键词,其后的所有句子就不必要处理,或者只要第二条句子中带有目标关键词,其后的所有句子就不必要处理,以此类推,直接跳到textList的下一项中的文本段落去处理。经过目标关键词优先的文本段落筛选后textList中所有不包含目标关键词的项全部被滤除,提升了爬虫***处理速度。
(2)目标关键词句子筛选与导出
将所述筛选后的文本段落中包含所述目标关键词的句子筛选出来,得到筛选后的目标关键词句子;将所述筛选后的目标关键词句子确定为所述目标关键词的网络文本数据。具体为:
本实施例目标是爬取互联网中所有包含目标关键词的句子,所有含目标关键词的句子构成文本数据。进过步骤(1)处理后的textList列表的每一项文本段落都含有带目标关键词的句子,当然也有不带目标关键词的句子,所以该步骤主要任务是过滤不带目标关键词的句子。通过句子中的词语推断该条句子是否带有目标关键词,推理中这条句子所有词语之间也是逻辑或关系,即一条句子中只要匹配到目标关键词,其后的词语不必再匹配,直接跳转至下一条句子的位置开始处理,将不带目标关键词的句子过滤掉,依此类推,完成所有目标关键词句子筛选任务,最后将这些含目标关键词的句子按处理先后顺序编号后输出到文本文件中。对于文本文件的输出,首先根据目标关键词生成文本文件名,例如目标关键词牦牛其输出文本文件名称为“牦牛.txt“,进而使用python的内置函数open(),并传入参数1:文件名,参数2:mode模式,参数3:encoding编码类型,在文本文件写入时将mode模式参数设置为”w”表示进行写入操作,由于针对中文文本所以需要将encoding编码设置为“utf-8”,该方法将在指定目录下创建该文件并打开。进一步遍历获得的句子,对于每个句子将其末尾拼接上换行符”\n”并使用write()方法将其写入目标文本文件,所有文本文件内容便构成本实施例的爬虫***爬出的最终网络文本数据。网络文本数据爬虫效果如图2所示。
上述实施例中的网络文本数据爬虫方法可概括为两个大的过程:
1)根据关键词来获取搜索引擎反馈的结果页面信息,得到基于关键词的各反馈条目中网址与描述文本,面向搜索引擎的搜索结果来获取网址信息可以扩大数据的来源;其次,根据网址类型来对获取到的网址信息与描述文本进行初次过滤,去除视频、地图、图片类型网址与其对应描述文本。最后,计算关键词与各描述文本的关联度,通过关联度阈值,实现进一步过滤,得到高价值网址数据。
2)首先,不同的网站的页面结构不同,文本分布规律也不同。因此本实施例在进行文本信息爬取时,首先分析网页文本的分布规律,根据规律过滤网页首尾无关文本信息,进一步对剩余文本中不能构成句子的短文本进行过滤;之后对剩余文本段落进行筛选,确定有效文本所在段落;最后对剩余段落中的句子进行逐个筛选,获取含关键词的目标文本句子。
上述实施例中的网络文本数据爬虫方法,具有如下优点:
本实施例解决了当前爬虫数据来源单一和对链接的无差别获取的问题。通过获取搜索引擎反馈结果页面中的不同条目网址来扩充文本数据的来源,通过对网址类型进行判断,过滤掉视频、图片、音乐等和对文本提取价值低的类型网址;通过各条目的描述文本与关键词的关联度分析实现对网址的进一步过滤,所以本实施例优点之一是面向搜索引擎进行网址获取,这样可以扩大数据获取的范围,同时根据网址的类型过滤和关联度分析过滤实现高价值网址获取,从而进而提升数据爬取的精度和爬取速度。
本实施例解决了之前爬虫只针对于特定网页类型和特定标签内文本数据,不同网站不通用的问题。本实施例提出面向网页文本分析及过滤的文本爬虫方法,根据主要内容文本的分布规律去除页面首尾无关文本,之后进行短文本过滤和段落筛选,从而不断提炼高价值文本段落,进而从中获取目标文本句子。所以本实施例优点之二是在对具体页面的有效文本数据进行爬取时,避免了传统爬虫需要指定具体标签或属性的问题,在进行网页信息爬取时,不再受限于特定的网页结构和特定标签,可以在所有类型网页的全部标签进行过滤、筛选,爬取有效文本内容,使其对于不同网站具有通用性。
本发明还提供了一种网络文本数据爬虫***,参见图3,所述***,包括:
搜索模块201,用于获取目标关键词的搜索结果页面;所述搜索结果页面是将所述目标关键词输入爬虫***的关键词搜索栏,并由所述爬虫***自动调用搜索引擎得到的;所述搜索结果页面包括至少一个条目网址和对应的描述文本。
第一解析模块202,用于对所述搜索结果页面中的每个所述条目网址进行解析,并根据解析结果将属于设定网址类型的条目网址删除,得到目标对象列表;所述目标对象列表用于存储删除后的条目网址和对应的描述文本。
关联度计算模块203,用于根据所述目标关键词与所述目标对象列表中描述文本的关联度,对所述目标对象列表中删除后的条目网址进行过滤,得到过滤后的条目网址。
第二解析模块204,用于采用网页解析库对所述过滤后的条目网址对应的网页进行解析,得到每个网页的文本内容列表,并根据文本概率分布和文本长度对所述文本内容列表中的文本内容进行过滤,得到过滤后的文本内容列表。
筛选模块205,用于根据所述目标关键词对所述过滤后的文本内容列表中文本内容的段落和句子进行筛选,由筛选后的文本内容确定所述目标关键词的网络文本数据。
其中,所述第二解析模块204,具体包括:
文本内容获取单元,用于采用BeautifulSoup库中获取文本的方法得到所述过滤后的条目网址对应的网页中所有标签中的全部文本内容。
文本划分单元,用于将所述全部文本内容按空格符划分,并将划分后的文本内容按照在网页中的先后顺序保存在文本内容列表中。
删除项数计算单元,用于根据所述文本内容列表中划分后的文本内容的重要性的分布概率计算需删除文本的项数K。
重要内容删选单元,用于将所述文本内容列表中的头部前K项文本内容和尾部后K项文本内容删除,得到概率分布筛选后的文本内容列表。
短文本过滤单元,用于将所述概率分布筛选后的文本内容列表中文本长度小于设定最短长度的文本内容删除,得到过滤后的文本内容列表。
其中,所述筛选模块205,具体包括:
段落筛选单元,用于将所述过滤后的文本内容列表中文本内容中包含所述目标关键词的段落筛选出来,得到筛选后的文本段落。
句子筛选单元,用于将所述筛选后的文本段落中包含所述目标关键词的句子筛选出来,得到筛选后的关键词句子。
网络文本数据确定单元,用于将所述筛选后的关键词句子确定为所述目标关键词的网络文本数据。
其中,所述第一解析模块202,具体包括:
Item对象构建单元,用于将所述搜索结果页面中的每个所述条目网址和对应的描述文本存储在一个Item对象中。
初始对象列表构建单元,用于由所有的Item对象构建初始对象列表。
属性解析单元,用于对所述初始对象列表中的Item对象的属性进行解析,若所述Item对象的网址属性中包含设定标识字段,则确定所述Item对象中的条目网址的类型属于设定网址类型;所述设定标识字段包括图片、地图、音乐和视频;所述设定网址类型包括图片类型、地图类型、音乐类型和视频类型。
网址类型过滤单元,用于将属于设定网址类型的条目网址所属的Item对象从所述初始对象列表中删除,得到目标对象列表。
其中,关联度计算模块204,具体包括:
关联度计算单元,用于计算所述目标关键词与所述目标对象列表中描述文本的关联度,所述关联度为
Figure BDA0003488042970000171
其中,R表示关联度;Sk表示目标关键词的字数;SC表示条目网址对应的描述文本的字数;t表示目标关键词在描述文本中出现的次数。
网址过滤单元,用于根据所述关联度和关联度阈值对所述目标对象列表中删除后的条目网址进行过滤,得到过滤后的条目网址。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的***而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。

Claims (10)

1.一种网络文本数据爬虫方法,其特征在于,包括:
获取目标关键词的搜索结果页面;所述搜索结果页面是将所述目标关键词输入爬虫***的关键词搜索栏,并由所述爬虫***自动调用搜索引擎得到的;所述搜索结果页面包括至少一个条目网址和对应的描述文本;
对所述搜索结果页面中的每个所述条目网址进行解析,并根据解析结果将属于设定网址类型的条目网址删除,得到目标对象列表;所述目标对象列表用于存储删除后的条目网址和对应的描述文本;
根据所述目标关键词与所述目标对象列表中描述文本的关联度,对所述目标对象列表中删除后的条目网址进行过滤,得到过滤后的条目网址;
采用网页解析库对所述过滤后的条目网址对应的网页进行解析,得到每个网页的文本内容列表,并根据文本概率分布和文本长度对所述文本内容列表中的文本内容进行过滤,得到过滤后的文本内容列表;
根据所述目标关键词对所述过滤后的文本内容列表中文本内容的段落和句子进行筛选,由筛选后的文本内容确定所述目标关键词的网络文本数据。
2.根据权利要求1所述的一种网络文本数据爬虫方法,其特征在于,所述采用网页解析库对所述过滤后的条目网址对应的网页进行解析,得到每个网页的文本内容列表,并根据文本概率分布和文本长度对所述文本内容列表中的文本内容进行过滤,得到过滤后的文本内容列表,具体包括:
采用BeautifulSoup库中获取文本的方法得到所述过滤后的条目网址对应的网页中所有标签中的全部文本内容;
将所述全部文本内容按空格符划分,并将划分后的文本内容按照在网页中的先后顺序保存在文本内容列表中;
根据所述文本内容列表中划分后的文本内容的重要性的分布概率计算需删除文本的项数K;
将所述文本内容列表中的头部前K项文本内容和尾部后K项文本内容删除,得到概率分布筛选后的文本内容列表;
将所述概率分布筛选后的文本内容列表中文本长度小于设定最短长度的文本内容删除,得到过滤后的文本内容列表。
3.根据权利要求1所述的一种网络文本数据爬虫方法,其特征在于,所述根据所述目标关键词对所述过滤后的文本内容列表中文本内容的段落和句子进行筛选,由筛选后的文本内容确定所述目标关键词的网络文本数据,具体包括:
将所述过滤后的文本内容列表中文本内容中包含所述目标关键词的段落筛选出来,得到筛选后的文本段落;
将所述筛选后的文本段落中包含所述目标关键词的句子筛选出来,得到筛选后的关键词句子;
将所述筛选后的关键词句子确定为所述目标关键词的网络文本数据。
4.根据权利要求1所述的一种网络文本数据爬虫方法,其特征在于,所述对所述搜索结果页面中的每个所述条目网址进行解析,并根据解析结果将属于设定网址类型的条目网址删除,得到目标对象列表,具体包括:
将所述搜索结果页面中的每个所述条目网址和对应的描述文本存储在一个Item对象中;
由所有的Item对象构建初始对象列表;
对所述初始对象列表中的Item对象的属性进行解析,若所述Item对象的网址属性中包含设定标识字段,则确定所述Item对象中的条目网址的类型属于设定网址类型;所述设定标识字段包括图片、地图、音乐和视频;所述设定网址类型包括图片类型、地图类型、音乐类型和视频类型;
将属于设定网址类型的条目网址所属的Item对象从所述初始对象列表中删除,得到目标对象列表。
5.根据权利要求1所述的一种网络文本数据爬虫方法,其特征在于,所述根据所述目标关键词与所述目标对象列表中描述文本的关联度,对所述目标对象列表中删除后的条目网址进行过滤,得到过滤后的条目网址,具体包括:
计算所述目标关键词与所述目标对象列表中描述文本的关联度,所述关联度为
Figure FDA0003488042960000021
其中,R表示关联度;Sk表示目标关键词的字数;SC表示条目网址对应的描述文本的字数;t表示目标关键词在描述文本中出现的次数;
根据所述关联度和关联度阈值对所述目标对象列表中删除后的条目网址进行过滤,得到过滤后的条目网址。
6.一种网络文本数据爬虫***,其特征在于,包括:
搜索模块,用于获取目标关键词的搜索结果页面;所述搜索结果页面是将所述目标关键词输入爬虫***的关键词搜索栏,并由所述爬虫***自动调用搜索引擎得到的;所述搜索结果页面包括至少一个条目网址和对应的描述文本;
第一解析模块,用于对所述搜索结果页面中的每个所述条目网址进行解析,并根据解析结果将属于设定网址类型的条目网址删除,得到目标对象列表;所述目标对象列表用于存储删除后的条目网址和对应的描述文本;
关联度计算模块,用于根据所述目标关键词与所述目标对象列表中描述文本的关联度,对所述目标对象列表中删除后的条目网址进行过滤,得到过滤后的条目网址;
第二解析模块,用于采用网页解析库对所述过滤后的条目网址对应的网页进行解析,得到每个网页的文本内容列表,并根据文本概率分布和文本长度对所述文本内容列表中的文本内容进行过滤,得到过滤后的文本内容列表;
筛选模块,用于根据所述目标关键词对所述过滤后的文本内容列表中文本内容的段落和句子进行筛选,由筛选后的文本内容确定所述目标关键词的网络文本数据。
7.根据权利要求6所述的一种网络文本数据爬虫***,其特征在于,所述第二解析模块,具体包括:
文本内容获取单元,用于采用BeautifulSoup库中获取文本的方法得到所述过滤后的条目网址对应的网页中所有标签中的全部文本内容;
文本划分单元,用于将所述全部文本内容按空格符划分,并将划分后的文本内容按照在网页中的先后顺序保存在文本内容列表中;
删除项数计算单元,用于根据所述文本内容列表中划分后的文本内容的重要性的分布概率计算需删除文本的项数K;
重要内容删选单元,用于将所述文本内容列表中的头部前K项文本内容和尾部后K项文本内容删除,得到概率分布筛选后的文本内容列表;
短文本过滤单元,用于将所述概率分布筛选后的文本内容列表中文本长度小于设定最短长度的文本内容删除,得到过滤后的文本内容列表。
8.根据权利要求6所述的一种网络文本数据爬虫***,其特征在于,所述筛选模块,具体包括:
段落筛选单元,用于将所述过滤后的文本内容列表中文本内容中包含所述目标关键词的段落筛选出来,得到筛选后的文本段落;
句子筛选单元,用于将所述筛选后的文本段落中包含所述目标关键词的句子筛选出来,得到筛选后的关键词句子;
网络文本数据确定单元,用于将所述筛选后的关键词句子确定为所述目标关键词的网络文本数据。
9.根据权利要求6所述的一种网络文本数据爬虫***,其特征在于,所述第一解析模块,具体包括:
Item对象构建单元,用于将所述搜索结果页面中的每个所述条目网址和对应的描述文本存储在一个Item对象中;
初始对象列表构建单元,用于由所有的Item对象构建初始对象列表;
属性解析单元,用于对所述初始对象列表中的Item对象的属性进行解析,若所述Item对象的网址属性中包含设定标识字段,则确定所述Item对象中的条目网址的类型属于设定网址类型;所述设定标识字段包括图片、地图、音乐和视频;所述设定网址类型包括图片类型、地图类型、音乐类型和视频类型;
网址类型过滤单元,用于将属于设定网址类型的条目网址所属的Item对象从所述初始对象列表中删除,得到目标对象列表。
10.根据权利要求6所述的一种网络文本数据爬虫***,其特征在于,关联度计算模块,具体包括:
关联度计算单元,用于计算所述目标关键词与所述目标对象列表中描述文本的关联度,所述关联度为
Figure FDA0003488042960000041
其中,R表示关联度;Sk表示目标关键词的字数;SC表示条目网址对应的描述文本的字数;t表示目标关键词在描述文本中出现的次数;
网址过滤单元,用于根据所述关联度和关联度阈值对所述目标对象列表中删除后的条目网址进行过滤,得到过滤后的条目网址。
CN202210088213.9A 2022-01-25 2022-01-25 一种网络文本数据爬虫方法与*** Active CN114443928B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210088213.9A CN114443928B (zh) 2022-01-25 2022-01-25 一种网络文本数据爬虫方法与***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210088213.9A CN114443928B (zh) 2022-01-25 2022-01-25 一种网络文本数据爬虫方法与***

Publications (2)

Publication Number Publication Date
CN114443928A true CN114443928A (zh) 2022-05-06
CN114443928B CN114443928B (zh) 2023-03-17

Family

ID=81369781

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210088213.9A Active CN114443928B (zh) 2022-01-25 2022-01-25 一种网络文本数据爬虫方法与***

Country Status (1)

Country Link
CN (1) CN114443928B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116701813A (zh) * 2023-08-04 2023-09-05 北控水务(中国)投资有限公司 一种数据检索方法、***、终端及存储介质
CN117573959A (zh) * 2023-10-17 2024-02-20 北京国科众安科技有限公司 一种基于网页xpath获取新闻正文的通用方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2048585A2 (en) * 2007-10-12 2009-04-15 Lexxe Pty Ltd System and method for enhancing search relevancy using semantic keys
CN101908071A (zh) * 2010-08-10 2010-12-08 厦门市美亚柏科信息股份有限公司 一种提高搜索引擎搜索效率的方法及其***
CN105022728A (zh) * 2015-07-13 2015-11-04 广西达译商务服务有限责任公司 汉老双语平行语料自动采集的***及实现方法
US20160103861A1 (en) * 2014-10-10 2016-04-14 OnPage.org GmbH Method and system for establishing a performance index of websites
CN105893622A (zh) * 2016-04-29 2016-08-24 深圳市中润四方信息技术有限公司 一种聚合搜索方法及聚合搜索***
CN106649823A (zh) * 2016-12-29 2017-05-10 淮海工学院 基于综合主题词垂直搜索和聚焦爬虫的网页分类识别方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2048585A2 (en) * 2007-10-12 2009-04-15 Lexxe Pty Ltd System and method for enhancing search relevancy using semantic keys
CN101908071A (zh) * 2010-08-10 2010-12-08 厦门市美亚柏科信息股份有限公司 一种提高搜索引擎搜索效率的方法及其***
US20160103861A1 (en) * 2014-10-10 2016-04-14 OnPage.org GmbH Method and system for establishing a performance index of websites
CN105022728A (zh) * 2015-07-13 2015-11-04 广西达译商务服务有限责任公司 汉老双语平行语料自动采集的***及实现方法
CN105893622A (zh) * 2016-04-29 2016-08-24 深圳市中润四方信息技术有限公司 一种聚合搜索方法及聚合搜索***
CN106649823A (zh) * 2016-12-29 2017-05-10 淮海工学院 基于综合主题词垂直搜索和聚焦爬虫的网页分类识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张素智等: "面向用户的本体爬虫研究与设计", 《郑州轻工业学院学报(自然科学版)》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116701813A (zh) * 2023-08-04 2023-09-05 北控水务(中国)投资有限公司 一种数据检索方法、***、终端及存储介质
CN117573959A (zh) * 2023-10-17 2024-02-20 北京国科众安科技有限公司 一种基于网页xpath获取新闻正文的通用方法
CN117573959B (zh) * 2023-10-17 2024-04-05 北京国科众安科技有限公司 一种基于网页xpath获取新闻正文的通用方法

Also Published As

Publication number Publication date
CN114443928B (zh) 2023-03-17

Similar Documents

Publication Publication Date Title
US10650087B2 (en) Systems and methods for content extraction from a mark-up language text accessible at an internet domain
US9619448B2 (en) Automated document revision markup and change control
US8812435B1 (en) Learning objects and facts from documents
CN102073726B (zh) 搜索引擎***的结构化数据的引入方法和装置
US20090070366A1 (en) Method and system for web document clustering
CN114443928B (zh) 一种网络文本数据爬虫方法与***
US8738643B1 (en) Learning synonymous object names from anchor texts
CN104391978A (zh) 用于浏览器的网页收藏处理方法及装置
CN107590288B (zh) 用于抽取网页图文块的方法和装置
CN106874502A (zh) 一种视频搜索的方法、装置及终端
CN112818200A (zh) 基于静态网站的数据爬取及事件分析方法及***
KR20080007740A (ko) 웹 온톨로지 검색/분류 시스템 및 방법
CN114117242A (zh) 数据查询方法和装置、计算机设备、存储介质
CN106326236A (zh) 一种网页内容识别方法和***
CN114021042A (zh) 网页内容的提取方法、装置、计算机设备和存储介质
KR20210098813A (ko) 텍스트 데이터 수집과 분석 장치 및 방법
Nie et al. Extracting objects from the web
US10380195B1 (en) Grouping documents by content similarity
CN108416048B (zh) 一种面向词典集的复杂从属结构网页信息抽取方法及***
Zhang et al. An improved ontology-based web information extraction
Singh et al. User specific context construction for personalized multimedia retrieval
CN116362223B (zh) 一种网页文章标题和正文的自动识别方法及装置
Man et al. The proposed algorithm for semi-structured data integration: Case study of Setiu wetland data set
Wang et al. qRead: A fast and accurate article extraction method from web pages using partition features optimizations
Veeraiah et al. A novel approach for extraction and representation of main data from web pages to android application

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant