首页 > 编程 > Python > 正文

Python3爬虫爬取百姓网列表并保存为json功能示例【基于request、lxml和json模块】

2020-01-04 13:55:27
字体:
来源:转载
供稿:网友

本文实例讲述了Python3爬虫爬取百姓网列表并保存为json功能。分享给大家供大家参考,具体如下:

python3爬虫之爬取百姓网列表并保存为json文件。这几天一直在学习使用python3爬取数据,今天记录一下,代码很简单很容易上手。

首先需要安装python3。如果还没有安装,可参考本站python3安装与配置相关文章。

首先需要安装requestslxmljson三个模块

需要手动创建d.json文件

代码

import requestsfrom lxml import etreeimport json#构造头文件,模拟浏览器访问url="http://xian.baixing.com/meirongfuwu/"headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.77 Safari/537.36','referer':url}response=requests.get(url,headers=headers)body=response.text #获取网页内容html=etree.HTML(body,etree.HTMLParser())gethtml=html.xpath('//div[contains(@class,"media-body-title")]')# 存储为数组listjsondata = []for item in gethtml:  jsonone={}  jsonone['title']=item.xpath('.//a[contains(@class,"ad-title")]/text()')[0]  jsonone['url']=item.xpath('.//a[contains(@class,"ad-title")]/attribute::href')[0]  jsonone['phone']=item.xpath('.//button[contains(@class,"contact-button")]/attribute::data-contact')[0]  jsondata.append(jsonone)# 保存为jsonwith open("./d.json",'w',encoding='utf-8') as json_file:  json.dump(jsondata,json_file,ensure_ascii=False)

结果

Python3,爬虫,百姓网,json,request,lxml

希望本文所述对大家Python程序设计有所帮助。


注:相关教程知识阅读请移步到python教程频道。
发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表