首页| 新闻| 娱乐| 游戏| 科普| 文学| 编程| 系统| 数据库| 建站| 学院| 产品| 网管| 维修| 办公| 热点
本文实例讲述了Python使用爬虫抓取美女图片并保存到本地的方法。分享给大家供大家参考,具体如下:
图片资源来自于www.qiubaichengren.com
代码基于Python 3.5.2
友情提醒:血气方刚的骚年。请
谨慎阅图! 谨慎阅图!! 谨慎阅图!!!
code:
#!/usr/bin/env python# -*- coding: utf-8 -*-import osimport urllibimport urllib.requestimport refrom urllib.error import URLErrorclass QsSpider: def __init__(self): self.user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)' self.header = {'User-Agent': self.user_agent} self.save_dir = './pic' self.url = 'http://www.qiubaichengren.com/%s.html' def start(self): for i in range(1, 10): self.load_html(str(i)) def load_html(self, page): try: web_path = self.url % page request = urllib.request.Request(web_path, headers=self.header) with urllib.request.urlopen(request) as f: html_content = f.read().decode('gb2312') # print(html_content) self.pick_pic(html_content) except URLError as e: print(e.reason) return def save_pic(self, img): print(img) save_path = self.save_dir + "/" + img.replace(':', '@').replace('/', '_') if not os.path.exists(self.save_dir): os.makedirs(self.save_dir) print(save_path) urllib.request.urlretrieve(img, save_path) pass def pick_pic(self, html_content): regex = r'src="(http:.*?/.(?:jpg|png|gif))' patten = re.compile(regex) pic_path_list = patten.findall(html_content) for i in pic_path_list: self.save_pic(str(i)) print(i)spider = QsSpider()spider.start()
代码运行后可得到如下N多大饱眼福的美女图:
希望本文所述对大家Python程序设计有所帮助。
手机内存不足怎么清理 手机提
怎样设置虚拟内存?
解决内存不足妙方
芭蕾舞蹈表演,真实美到极致
下午茶时间,悠然自得的休憩
漫天大雪天空飞舞展现最美雪景
充斥这繁华奢靡气息的城市迪拜风景图片
肉食主义者的最爱美食烤肉图片
夏日甜心草莓美食图片
人逢知己千杯少,喝酒搞笑图集
搞笑试卷,学生恶搞答题
新闻热点
疑难解答
图片精选
Python入门基础教程 超详细1小时学
python连接MySQL数据库实例分析
wxPython定时器wx.Timer简单应用实
浅谈python中截取字符函数strip,lst
网友关注