实现爬虫技术的编程环境有很多种,Java、Python、C++等都可以用来爬虫。但很多人选择Python来写爬虫,为什么呢?因为Python确实很适合做爬虫,丰富的第三方库十分强大,简单几行代码便可实现你想要的功能。更重要的,Python也是数据挖掘和分析的好能手。那么,Python爬虫一般用什么框架比较好?
一般来说,爬虫的需求,用requests库+bs4库就能解决;大型爬虫数据,尤其涉及异步抓取、内容管理及后续扩展等功能时,就需要用到爬虫框架了。这12个框架都有其独特的特点,可以根据具体的需求选择合适的框架。需要注意的是,不同的框架适用的场景不同,选择框架时需要充分考虑数据的规模、爬虫的性能、网页的特性等因素。
1. Scrapy
scrapy官网:https://scrapy.org/
scrapy中文文档:
https://www.osgeo.cn/scrapy/intro/o
Scrapy是Python爬虫领域最著名的框架之一,提取结构性数据而编写的应用框架。它是一个快速、高效、可扩展的爬虫框架。可以应用在包括数据挖掘,信息处理或存储历史数据等一系列的程序中。Scrapy自带了强大的Selector和异步处理机制,能够快速高效地爬取大量数据。
其最初是为了 页面抓取 (更确切来说, 网络抓取 )所设计的, 也可以应用在获取API所返回的数据(例如 Amazon Associates Web Services ) 或者通用的网络爬虫。
-
Scrapy是一个非常快速和高效的爬虫框架,能够快速地爬取大量的数据。
-
Scrapy内置的Selector提供了强大的数据解析功能,支持XPath和CSS选择器。
-
Scrapy有一个强大的异步处理机制,可以同时处理多个请求,从而加速爬取过程。
-
Scrapy支持多种数据存储方式,包括CSV、JSON、XML、SQLite和MySQL等。
-
Scrapy的学习曲线比较陡峭,需要一定的Python基础。
-
Scrapy的定制化程度比较高,需要一定的技术水平才能进行修改和扩展。
-
Scrapy对于JavaScript渲染的网页支持不够完善,需要使用Selenium等工具来解决。
2. PySpider
PySpider 中文网:http://www.pyspider.cn
PySpider 官网:http://docs.pyspider.org
PySpider 演示:http://demo.pyspider.org
PySpider 源码:
https://github.com/binux/pyspider
PySpider是一个国人编写的强大的网络爬虫系统并带有强大的WebUI,其用python实现的功能强大的网络爬虫系统,能在浏览器界面上进行脚本的编写,功能的调度和爬取结果的实时查看,后端使用常用的数据库进行爬取结果的存储,还能定时设置任务与任务优先级等。
3. Crawley
Crawley可以高速爬取对应网站的内容,支持关系和非关系数据库,数据可以导出为JSON、XML等。
4. Portia
官网:
https://portia.scrapinghub.com/
Portia是一个开源可视化爬虫工具,可让您在不需要任何编程知识的情况下爬取网站!简单地注释您感兴趣的页面,Portia将创建一个蜘蛛来从类似的页面提取数据。其主要特征是:
-
基于 scrapy 内核
-
可视化爬取内容,不需要任何开发专业知识
-
动态匹配相同模板的内容
5. Newspaper
官方文档:Quickstart - newspaper 0.0.2 documentation
github地址:
https://github.com/codelucas/newspaper
Newspaper可以用来提取新闻、文章和内容分析。使用多线程,支持10多种语言等。作者从requests库的简洁与强大得到灵感,使用python开发的可用于提取文章内容的程序。支持10多种语言并且所有的都是unicode编码。
6. Beautiful Soup
官方文档:Beautiful Soup 4.4.0 文档
Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库.它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式.Beautiful Soup会帮你节省数小时甚至数天的工作时间。这个我是使用的特别频繁的。在获取html元素,都是bs4完成的。
-
BeautifulSoup简单易用,对于初学者非常友好。
-
BeautifulSoup内置了多种解析器,支持多种格式的文档。
-
BeautifulSoup不是一个完整的爬虫框架,需要搭配其他库来实现爬虫功能。
-
BeautifulSoup不支持异步处理,因此不能高效地处理大量的数据。
-
BeautifulSoup的解析速度相对较慢。
7. Grab
官网:
https://grablib.org/en/latest/
Grab是一个用于构建Web刮板的Python框架。借助Grab,您可以构建各种复杂的网页抓取工具,从简单的5行脚本到处理数百万个网页的复杂异步网站抓取工具。Grab提供一个API用于执行网络请求和处理接收到的内容,例如与HTML文档的DOM树进行交互。
8. Cola
github地址:
https://github.com/qinxuye/cola
Cola是一个分布式的爬虫框架,对于用户来说,只需编写几个特定的函数,而无需关注分布式运行的细节。任务会自动分配到多台机器上,整个过程对用户是透明的。
9. Selenium
官网:https://www.selenium.dev/
Selenium 是自动化测试工具。它支持各种浏览器,包括 Chrome,Safari,Firefox 等主流界面式浏览器,如果在这些浏览器里面安装一个 Selenium 的插件,可以方便地实现Web界面的测试. Selenium 支持浏览器驱动。Selenium支持多种语言开发,比如 Java,C,Ruby等等,PhantomJS 用来渲染解析JS,Selenium 用来驱动以及与 Python 的对接,Python 进行后期的处理。Selenium是一个流行的自动化测试工具,也可以用于爬虫开发。它可以模拟用户行为,支持JavaScript渲染的网页。
-
Selenium可以模拟用户行为,支持JavaScript渲染的网页,能够解决一些其他框架不能解决的问题。
-
Selenium支持异步处理,可以高效地处理大量的数据。
-
Selenium启动浏览器需要一定的时间,并且消耗系统资源。
-
Selenium需要安装浏览器驱动,有一定的技术门槛
10. Python-goose
github地址:
https://github.com/goose3/goose
Python-goose框架可提取的信息包括:
文章主体内容
文章主要图片
文章中嵌入的任何Youtube/Vimeo视频
元描述
元标签
11、PyQuery
PyQuery是另一个流行的Python爬虫框架,它是jQuery的Python实现。它可以解析HTML和XML文档,并提供了类似于jQuery的API来处理解析树。
-
PyQuery的API设计简单易用,可以快速地实现爬虫功能。
-
PyQuery支持链式调用,可以更加高效地处理数据。
-
PyQuery支持XPath和CSS选择器。
-
PyQuery不支持异步处理,因此不能高效地处理大量的数据。
-
PyQuery对于JavaScript渲染的网页支持不够完善,需要使用Selenium等工具来解决。
12、Requests-HTML
Requests-HTML是基于Requests和PyQuery的Python爬虫框架。它提供了类似于Requests的API,并使用PyQuery进行数据解析。
-
Requests-HTML使用简单,API设计类似于Requests。
-
Requests-HTML使用PyQuery进行数据解析,可以方便地处理数据。
-
Requests-HTML支持JavaScript渲染的网页。
-
Requests-HTML不支持异步处理,因此不能高效地处理大量的数据。
一些
爬虫
项目的半成品
二、常见
python
爬虫
框架
(1)Scrapy:很强大的
爬虫
框架
,可以满足简单的页面爬取(比如可以明确获知url pattern的情况)。用这个
框架
可以轻松爬下来如亚马逊商品信息之类的数据。但是对于稍微复杂一点的页面,如weibo的页面信息,这个
框架
就满足不了需求了。
(2)Crawley: 高速爬取对应网站的内容,支持关系和非关系数据库,数据可以导出为JSON、XML等
(3)Portia:
可视化
爬取网页内容
(4)newspaper...
网络
爬虫
(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。下面我们一起来了解一下。
1.Scrapy
Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用
框架
。 可以应用在包括数据挖掘,信息处理或存储历史数据等一系列的程序中。。用这个
框架
可以轻松爬下来如亚马逊商品信息之类的数据。
项目地址:https://scrapy.org/
2.PySpider
pyspider 是一个用
python
...