首页 > 学院 > 开发设计 > 正文

一个python爬虫小程序

2019-11-14 17:12:12
字体:
来源:转载
供稿:网友

起因

深夜忽然想下载一点电子书来扩充一下kindle,就想起来python学得太浅,什么“装饰器”啊、“多线程”啊都没有学到。

想到廖雪峰大神的python教程很经典、很著名。就想找找有木有pdf版的下载,结果居然没找到!!CSDN有个不完整的还骗走了我一个积分!!尼玛!!

怒了,准备写个程序直接去爬廖雪峰的教程,然后再html转成电子书。

过程

过程很有趣呢,用浅薄的python知识,写python程序,去爬python教程,来学习python。想想有点小激动……

果然python很是方便,50行左右就OK了。直接贴代码:

# coding:utf-8import urllibdomain = 'http://www.liaoxuefeng.com'           #廖雪峰的域名path = r'C:/Users/cyhhao2013/Desktop/temp//'    #html要保存的路径# 一个html的头文件input = open(r'C:/Users/cyhhao2013/Desktop/0.html', 'r')head = input.read()# 打开python教程主界面f = urllib.urlopen("http://www.liaoxuefeng.com/wiki/001374738125095c955c1e6d8bb493182103fac9270762a000")home = f.read()f.close()# 替换所有空格回车(这样容易好获取url)geturl = home.replace("/n", "")geturl = geturl.replace(" ", "")# 得到包含url的字符串list = geturl.split(r'em;"><ahref="')[1:]# 强迫症犯了,一定要把第一个页面也加进去才完美list.insert(0, '/wiki/001374738125095c955c1e6d8bb493182103fac9270762a000">')# 开始遍历url Listfor li in list:    url = li.split(r'">')[0]    url = domain + url              #拼凑url    PRint url    f = urllib.urlopen(url)    html = f.read()    # 获得title为了写文件名    title = html.split("<title>")[1]    title = title.split(" - 廖雪峰的官方网站</title>")[0]    # 要转一下码,不然加到路径里就悲剧了    title = title.decode('utf-8').replace("/", " ")    # 截取正文    html = html.split(r'<!-- block main -->')[1]    html = html.split(r'<h4>您的支持是作者写作最大的动力!</h4>')[0]    html = html.replace(r'src="', 'src="' + domain)    # 加上头和尾组成完整的html    html = head + html+"</body></html>"    # 输出文件    output = open(path + "%d" % list.index(li) + title + '.html', 'w')    output.write(html)    output.close()

 

简直,人生苦短我用python啊!

最后

附上HTML转epub电子书格式在线链接:html.toepub.com

以及廖雪峰的教程:链接 廖雪峰的Git教程也非常非常的不错哦~

顺便扩充一下自己的→_→GitHub(爬下来的html也在github上哦~)

以及个人博客:http://blog.zhusun.in/cyhhao

原文来自:一个python爬虫小程序

 

by:cyhhao http://blog.zhusun.in/cyhhao/


上一篇:TaumandB&#39;day

下一篇:ACMICPCTeam

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表