
第一关:Scarpy安装与项目创建
代码:
第二关:Scrapy核心原理
代码:
# -*- Coding: utf-8 -*-import scrapyclass WorldSpIDer(scrapy.SpIDer): name = 'world' allowed_domains = ['www.baIDu.com'] start_urls = ['http://www.baIDu.com/'] def parse(self, response): # ********** Begin *********# # 将获取网页源码本地持久化 baIDu = response.url.split(".")[1] + '.HTML' with open(baIDu, 'wb') as f: f.write(response.body) # ********** End *********# 总结 以上是内存溢出为你收集整理的Python之Scrapy爬虫基础全部内容,希望文章能够帮你解决Python之Scrapy爬虫基础所遇到的程序开发问题。
如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)