Python爬虫实战:一行代码教你轻松爬取“百度贴吧图片”

分享一个比较核心的技术问题;爬虫!今天分享的是我朋友最近公众号书写的一篇内容之一,希望你喜欢。就从今天的分享教大家怎么爬取百度贴吧,爬取自己想要的。快来吧!

1、目标:

爬取贴吧每一贴,楼主图,并保存。由于图片大多是楼主发的,如果全部查找会浪费很多时间。

2、分析

我选择爬取的贴吧为图吧,你们可以选择自己想要爬取的贴吧。

3、获取页面

我们将爬取页面的代码写成一个get_html()方法,给他传入url参数

代码如截图所示:

获取正常,没问题。

我们用chrome的开发者模式来分析每个贴的连接,用定位定位一个帖子,这样方便我们快速的去查找我们想要的信息。


4、利用正则表达式找出我们想要的连接

通过查找,我们发现每个贴都是在class=“col2_right j_threalist_li/_right”下我们可以让他成为一个标志位,通过它继续往下找,他有两个类名,我们选择后者即可。

.*?(.*?)

返回的是一个数组,为了好看我们以字典的方式返回,用yield我们可以理解为返回值,在python基础里会讲,我们将获取的页面作为参数传进去,实现get_url方法。

如图所示:

我们来打印一下,看一下获取的是什么?

结果如图:

很明显,我们需要来拼接一下,获取完整的url。

点击一个进入,可以发现,url是这样的:https://tieba.baidu.com/p/5768252315

我们得到了后半部分,那就容易了,只需要拼接一下,得到的结果就变成了:

得到链接后,我们需要再次发送请求,获取到每个贴的内容,即调用我们上面写好的get_html()方法即可。


5、找到每个帖子楼主发的图片链接

同样的方式,打开开发者模式,找的图片,找出标志位,写出正则,这里就不详细说了,正则为:

实现get_img_url()方法:

结果图为:

6、获取到图片地址后,自然是要下载下来实现write_to_file()方法

下载图片,在上篇文章上已经有实例,

连接:python第二大神器requests

这里直接上代码图:

里面的正则是用来作为图片名字的,time.sleep(2)是为了爬取慢点

太快会无响应或者报错。

我们来修改一下,来爬取第一页贴中的所有贴,获取楼主贴的总页数

和上面同样的方式找到总页数,并写出获取总页数的正则:

实现get_ye方法,同时点击只看楼主,url会多出see_lz=1

如图:


7、由于有些贴吧的贴子很多,我们就选择获取前十页内容,当然你也可以写个方法换取所有页

这里就不实例了,在贴吧里点击下一页我们发现url多出pn=50,由此我们知道50为偏移量,即一页有50个帖子pn=n 是n+1到n+50帖子。

8、整合一下代码,我们用main()方法来调用上面的方法。

如图:

爬取百度贴吧图片的源码已经放在云盘,如果需要源码请私信我,领取源码资料;


如果你觉得我分享的还可以,可以私信我,关注我,私信可以领取python相关学习资料哦:例如“人工智能”、“爬虫”、“数据库”、“web开发”等类似学习参考资料书籍。关注小编,私信即可。

1、如何获取

2、关注小编

私信小编:回复 “学习资料” 即可领取资料

头条怎么私信

点击头条,点击右下角“我的”

在个人界面点击关注,如果你关注了,点击“小杆货”就可以了

私信回复:“学习资料”就可以了 但是你要先关注我哦~