首页 > 编程 > Python > 正文

使用Scrapy爬取动态数据

2020-02-15 23:18:09
字体:
来源:转载
供稿:网友

对于动态数据的爬取,可以选择seleniumPhantomJS两种方式,本文选择的是PhantomJS。

网址:

https://s.taobao.com/search?q=%E7%AC%94%E8%AE%B0%E6%9C%AC%E7%94%B5%E8%84%91&imgfile=&commend=all&ssid=s5-e&search_type=item&sourceId=tb.index&spm=a21bo.2017.201856-taobao-item.1&ie=utf8&initiative_id=tbindexz_20170306

1.首先第一步,对中间件的设置。

进入pipelines.py文件中:

from selenium import webdriverfrom scrapy.http.response.html import HtmlResponsefrom scrapy.http.response import Responseclass SeleniumSpiderMiddleware(object):  def __init__(self):    self.driver = webdriver.PhantomJS()  def process_request(self ,request ,spider):    # 当引擎从调度器中取出request进行请求发送下载器之前    # 会先执行当前的爬虫中间件 ,在中间件里面使用selenium    # 请求这个request ,拿到动态网站的数据 然后将请求    # 返回给spider爬虫对象    if spider.name == 'taobao':      # 使用爬虫文件的url地址      spider.driver.get(request.url)      for x in range(1 ,12 ,2):        i = float(x) / 11        # scrollTop 从上往下的滑动距离        js = 'document.body.scrollTop=document.body.scrollHeight * %f' % i        spider.driver.execute_script(js)      response = HtmlResponse(url=request.url,                  body=spider.driver.page_source,                  encoding='utf-8',                  request=request)      # 这个地方只能返回response对象,当返回了response对象,那么可以直接跳过下载中间件,将response的值传递给引擎,引擎又传递给 spider进行解析      return response

在设置中,要将middlewares设置打开。

进入settings.py文件中,将

DOWNLOADER_MIDDLEWARES = {  'taobaoSpider.middlewares.SeleniumSpiderMiddleware': 543,}

打开。

2.第二步,爬取数据

回到spider爬虫文件中。

引入:

from selenium import webdriver

自定义属性:

def __init__(self):  self.driver = webdriver.PhantomJS()

查找数据和分析数据:

def parse(self, response):  div_info = response.xpath('//div[@class="info-cont"]')  print(div_info)  for div in div_info:    title = div.xpath('.//div[@class="title-row "]/a/text()').extract_first('')    # title = self.driver.find_element_by_class_name("title-row").text    print('名称:', title)    price = div.xpath('.//div[@class="sale-row row"]/div/span[2]/strong/text()').extract_first('')

3.第三步,传送数据到item中:

item.py文件中:

name = scrapy.Field()price = scrapy.Field()

回到spider.py爬虫文件中:

引入:

from ..items import TaobaospiderItem            
发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表