首页 > 编程 > Python > 正文

python实现爬虫下载美女图片

2020-01-04 18:04:36
字体:
来源:转载
供稿:网友

本文给大家发发福利,给大家分享一个使用Python实现爬虫下载百度贴吧美女图片的代码,十分不错,有需要的小伙伴直接拿走吧。

本次爬取的贴吧是百度的美女吧,给广大男同胞们一些激励

在爬取之前需要在浏览器先登录百度贴吧的帐号,各位也可以在代码中使用post提交或者加入cookie

爬行地址:http://tieba.baidu.com/f?kw=%E7%BE%8E%E5%A5%B3&ie=utf-8&pn=0

 

 
  1. #-*- coding:utf-8 -*- 
  2. import urllib2 
  3. import re 
  4. import requests 
  5. from lxml import etree 
  6.  
  7. 这些是要导入的库,代码并没有使用正则,使用的是xpath,正则困难的童鞋可以尝试使用下 
  8.  
  9. 推荐各位先使用基本库来写,这样可以学习到更多 
  10.  
  11. links=[]    #遍历url的地址 
  12. k=1     
  13. print u'请输入最后的页数:' 
  14. endPage=int(raw_input())    #最终的页数  (r'/d+(?=/s*页) 这是一个比较通用的正则抓取总页数的代码,当然最后要group 
  15.  
  16. #这里是手动输入页数,避免内容太多 
  17.  
  18. for j in range(0,endPage): 
  19. url='http://tieba.baidu.com/f?kw=%E7%BE%8E%E5%A5%B3&ie=utf-8&pn='+str(j)      #页数的url地址 
  20. html=urllib2.urlopen(url).read()                #读取首页的内容 
  21. selector=etree.HTML(html)              #转换为xml,用于在接下来识别 
  22. links=selector.xpath('//div/a[@class="j_th_tit"]/@href')        #抓取当前页面的所有帖子的url 
  23.  
  24. #大家可以使用浏览器自带的源码查看工具,在指定目标处查看元素,这样更快捷 
  25.  
  26. for i in links: 
  27. url1="http://tieba.baidu.com"+i      #因为爬取到的地址是相对地址,所以要加上百度的domain 
  28. html2=urllib2.urlopen(url1).read()      #读取当前页面的内容 
  29. selector=etree.HTML(html2)          #转换为xml用于识别 
  30. link=selector.xpath('//img[@class="BDE_Image"]/@src')    #抓取图片,各位也可以更换为正则,或者其他你想要的内容 
  31.  
  32. #此处就是遍历下载 
  33. for each in link: 
  34. #print each 
  35. print u'正在下载%d'%k 
  36. fp=open('image/'+str(k)+'.bmp','wb')      #下载在当前目录下 image文件夹内,图片格式为bmp 
  37. image1=urllib2.urlopen(each).read()        #读取图片的内容 
  38. fp.write(image1)                  #写入图片 
  39. fp.close() 
  40. k+=1    #k就是文件的名字,每下载一个文件就加1 
  41.  
  42. print u'下载完成!' 

如果想要爬取其他站点的内容,大家可以参考一下

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表