13天搞定python网络爬虫

1. 什么是爬虫?

网络爬虫也叫网络蜘蛛,如果把互联网比喻成一个蜘蛛网,那么蜘蛛就是在网上爬来爬去的蜘蛛,爬虫程序通过请求url地址,根据响应的内容进行解析采集数据, 比如:如果响应内容是html,分析dom结构,进行dom解析、或者正则匹配,如果响应内容是xml/json数据,就可以转数据对象,然后对数据进行解析。


13天搞定python网络爬虫


2. 有什么作用?

通过有效的爬虫手段批量采集数据,可以降低人工成本,提高有效数据量,给予运营/销售的数据支撑,加快产品发展。

3. 业界的情况

目前互联网产品竞争激烈,业界大部分都会使用爬虫技术对竞品产品的数据进行挖掘、采集、大数据分析,这是必备手段,并且很多公司都设立了爬虫工程师的岗位

4. 合法性

爬虫是利用程序进行批量爬取网页上的公开信息,也就是前端显示的数据信息。因为信息是完全公开的,所以是合法的。其实就像浏览器一样,浏览器解析响应内容并渲染为页面,而爬虫解析响应内容采集想要的数据进行存储。

5. 反爬虫

爬虫很难完全的制止,道高一尺魔高一丈,这是一场没有硝烟的战争,码农VS码农

反爬虫一些手段:

合法检测:请求校验(useragent,referer,接口加签名,等)

小黑屋:IP/用户限制请求频率,或者直接拦截

投毒:反爬虫高境界可以不用拦截,拦截是一时的,投毒返回虚假数据,可以误导竞品决策


13天搞定python网络爬虫

6. 选择一门语言

爬虫可以用各种语言写, C++, Java都可以, 为什么要Python?

首先用C++搞网络开发的例子不多(可能是我见得太少) 然后由于Oracle收购了Sun, Java目前虽然在Android开发上很重要, 但是如果Google官司进展不顺利, 那么很有可能用Go语言替代掉Java来做Android开发. 在这计算机速度高速增长的年代里, 选语言都要看他爹的业绩, 真是稍不注意就落后于时代. 随着计算机速度的高速发展, 某种语言开发的软件运行的时间复杂度的常数系数已经不像以前那么重要, 我们可以越来越偏爱为程序员打造的而不是为计算机打造的语言. 比如Ruby这种传说中的纯种而又飘逸的的OOP语言, 或者Python这种稍严谨而流行库又非常多的语言, 都大大弱化了针对计算机运行速度而打造的特性, 强化了为程序员容易思考而打造的特性. 所以我选择Python

7. 选择Python版本

有2和3两个版本, 3比较新, 听说改动大. 根据我在知乎上搜集的观点来看, 我还是倾向于使用”在趋势中将会越来越火”的版本, 而非”目前已经很稳定而且很成熟”的版本. 这是个人喜好, 而且预测不一定准确. 但是如果Python3无法像Python2那么火, 那么整个Python语言就不可避免的随着时间的推移越来越落后, 因此我想其实选哪个的最坏风险都一样, 但是最好回报却是Python3的大. 其实两者区别也可以说大也可以说不大, 最终都不是什么大问题. 我选择的是Python 3

8. 爬虫基本套路


13天搞定python网络爬虫

请求头设置,如:useragant为有效客户端

控制请求频率(根据实际情景)

IP代理

签名/加密参数从html/cookie/js分析

请求带上用户cookie信息

破解验证码

简单的验证码可以使用识图读验证码第三方库

解析数据

HTML Dom解析

正则匹配,通过的正则表达式来匹配想要爬取的数据,如:有些数据不是在html 标签里,而是在html的script 标签的js变量中

使用第三方库解析html dom,比较喜欢类jquery的库

数据字符串

正则匹配(根据情景使用)

转 JSON/XML 对象进行解析

9. python爬虫

python写爬虫的优势

python语法易学,容易上手

社区活跃,实现方案多可参考

各种功能包丰富

少量代码即可完成强大功能

涉及模块包

请求

urllib

requests

多线程

threading

正则

re

json解析

json

html dom解析

beautiful soup

lxml

xpath

操作浏览器

selenium


==========================13天搞定Python分布爬虫===========

===========================第1天===========================

01-爬虫介绍

02-爬虫软件的安装

03-第一个爬虫

04-Request对象的使用

05-get请求的使用

06-贴吧案例

07-post请求的使用

===========================第2天===========================

08-ajax请求的抓取

09-https请求的使用

10-proxy的使用

11-cookie的使用1

12-cookie的使用2

13-URLError的使用

14-requests的使用

===========================第3天===========================

15-re的使用

16-糗事百科案例

17-BeautifulSoup的使用

18-xpath的使用

19-pyquery的使用

20-jsonpath的使用

===========================第4天===========================

21-多线程的使用

22-tesseract的使用

23-云打码平台的使用

24-云打码登录

25-爬取图文并茂文章方法

26-selenium的使用

===========================第5天===========================

27-阶段测试需求说明

28-猫眼测试xpath的写法

29-猫眼测试bs4的写法

30-猫眼测试re的写法

31-猫眼测试pyquery的写法

32-ChromeDriver开启无头模式

33-爬虫复习

===========================第6天===========================

34-虎牙直播练习

35-selenium滚动条的使用

36-图虫图片练习

37-双色球练习数据下载

38-双色球练习保存数据库

39-双色球练习数据更新

40-爬虫新写法1

41-爬虫新写法2

===========================第7天===========================

42-爬虫的基本介绍

43-爬虫的基本使用

44-爬虫的数据提取

45-scrapy中pipeline中的使用

46-scrapy中settings的设置

47-scrapy中细节问题

48-scrapy爬取小说

49-scrapy中crawlspider的使用

===========================第8天===========================

50-scrapy中ImagePipeline的使用

51-scrapy中动态UA的使用

52-scrapy中动态代理的使用

53-scrapy登录方式1

54-scrapy登录方式2

55-scrapy登录方式3

===========================第9天===========================

55-Mongo的使用

56-Mongo的数据库实例与集合的操作

57-Mongo的数据基本操作(CRUD)

58-Mongo的数据查询

59-Python与Mongo的交互

60-Scrapy中保存到数据库

61-Scrapy中调试的使用

===========================第10天===========================

62-Splash的安装

63-Splash如何打开服务

64-阶段测试

65-scrapy内容补充

===========================第11天===========================

66-splash与requests结合

67-splash与scrapy的结合

68-selenium与scrapy的结合

69-某家内容爬取-数据解析

70-某家内容爬取-数据保存

===========================第12天===========================

71-scrapy-redis的介绍

72-linux的安装

73-linux软件安装与克隆

74-scrapy-redis的windows环境安装

75-scrapy_redis的写法1

76-scrapy_redis的写法

77-scrapy_redis的写法2

78-从redis中取出数据到Mongo数据库

===========================第13天===========================

0.1-Flask介绍与安装

0.2-Flask的路由设置与参数接收

0.3-Flask的响应

0.4-Flask与Echarts的结合使用

番外1-51job需求与页面分析

番外2-51job页面解析1

番外3-51job页面解析2

番外4-51job保存到数据库

有问题可以留言或者私信我

备注:爬虫


分享到:


相關文章: