错误!终端不支持 JavaScript ,请打开 JavaScript 功能!

目录
内容

常见的 Python 框架


  1. Scrapy

Scrapy 是一个为了爬取网站数据,提取结构性数据而编写的应用框架;可以应用在包括数据挖掘,信息处理或存储历史数据等一系列的程序中。

项目地址:https://scrapy.org/

安装命令如下:

pip install scrapy
  1. PySpider

PySpider 是一个用 Python 实现的功能强大的网络爬虫系统,能在浏览器界面上进行脚本的编写,功能的调度和爬取结果的实时查看,后端使用常用的数据库进行爬取结果的存储,还能定时设置任务与任务优先级等。

项目地址:https://github.com/binux/pyspider

  1. Crawley

Crawley 可以高速爬取对应网站的内容,支持关系和非关系数据库,数据可以导出为JSON、XML等。

项目地址:http://project.crawley-cloud.com/

  1. Portia

Portia 是一个开源可视化爬虫工具,可让您在不需要任何编程知识的情况下爬取网站!简单地注释您感兴趣的页面,Portia 将创建一个蜘蛛来从类似的页面提取数据。

项目地址:https://github.com/scrapinghub/portia

  1. Newspaper

Newspaper 可以用来提取新闻、文章和内容分析。使用多线程,支持10多种语言等。

项目地址:https://github.com/codelucas/newspaper

  1. Beautiful Soup

Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库,它能够通过你喜欢的转换器实现惯用的文档导航、查找、修改文档的方式;Beautiful Soup会帮你节省数小时甚至数天的工作时间。

项目地址:https://www.crummy.com/software/BeautifulSoup/bs4/doc/

  1. Grab

Grab 是一个用于构建 Web 刮板的Python框架,借助 Grab,您可以构建各种复杂的网页抓取工具,从简单的5行脚本到处理数百万个网页的复杂异步网站抓取工具。Grab 提供一个API用于执行网络请求和处理接收到的内容,例如与 HTML 文档的 DOM 树进行交互。

项目地址:http://docs.grablib.org/en/latest/#grab-spider-user-manual

  1. Cola

Cola 是一个分布式的爬虫框架,对于用户来说,只需编写几个特定的函数,而无需关注分布式运行的细节,任务会自动分配到多台机器上,整个过程对用户是透明的。

项目地址:https://github.com/chineking/cola


打开手机扫描阅读

提示:动画按钮可以拖动并记忆位置
部分设置修改过后需刷新页面
如果过渡动画效果卡顿可关闭声音、鼠标特效

悬浮设置

系统设置

语言设置

权限设置

如列表太长,手持设备滚动列表时,可在屏幕靠右侧下滑,否则将调整项目位置。