
request.Request方法的使用上一章节中介绍了
request.urlopen()的使用,仅仅的很简单的使用,不能设置请求头及cookie的东西,request.Request()方法就是进一步的包装请求.
1、源码查看参数
class Request: def __init__(self, url, data=None, headers={}, origin_req_host=None, unverifiable=False, method=None): pass 2、使用请求百度
from urllib import requestif __name__ == "__main__": headers = { 'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_5) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.87 Safari/537.36 OPR/54.0.2952.64' } req = request.Request(url='https://www.baIDu.com', headers=headers) response = request.urlopen(req) print(response.read()) 二、使用代理服务器 1、常见免费的代理地址
西刺代理无忧代理快代理89免费代理2、检测当前ip信息的测试网站
3、使用代理
from urllib import requestif __name__ == "__main__": headers = { 'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_5) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.87 Safari/537.36 OPR/54.0.2952.64' } # 创建使用代理 handler = request.ProxyHandler({"http": "186.103.173.189:58243"}) opener = request.build_opener(handler) # 包装请求对象 req = request.Request("http://httpbin.org/get", headers=headers) # 使用代理打开网站 response = opener.open(req) print(response.read().decode("utf8")) 三、更多关于python爬虫文章可以访问 总结 以上是内存溢出为你收集整理的python爬虫系列(1.2-urllib模块中request 常用方法)全部内容,希望文章能够帮你解决python爬虫系列(1.2-urllib模块中request 常用方法)所遇到的程序开发问题。
如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)