今天练习了抓取多页天涯帖子,重点复习的知识包括
这里有一个疑问:有时候一个标签可以有多个属性,不知道soup.find_all()能不能接受不止一个属性以缩小查找的范围。
# 引入库和请求头文件import requestsfrom bs4 import BeautifulSoupheaders = { 'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36'}# 定义主体函数。函数主体由四部分组成:#1.请求网址#2.解析网页,形成可查找的html格式#3.通过soup.select或者sopu.find_all查找需要的标签#4.通过zip()代码将多个内容合并在一起def get_content(url): res = requests.get(url,headers = headers) res.encoding = 'utf-8' soup = BeautifulSoup(res.text,'html.parser') contents = soup.find_all('div','bbs-content') authors = soup.find_all('a','js-vip-check') for author,content in zip(authors,contents): data = { 'author':author.get_text().strip(), 'content': content.get_text().strip() } print(data)# 在这里构造一个两层链接结构:帖子的1、2、3、4页和帖子的详情页的关系在这里实现if __name__ == '__main__': urls = ['http://bbs.tianya.cn/post-develop-2271894-{}.shtml'.format(str(i)) for i in range (1,5)] # 要注意,这里的‘5'是不包括在范围里的 for url in urls: get_content(url)
新闻热点
疑难解答