
url = 'someurl'headers = '(('HOST','somehost'),/ ('Connection','keep-alive'),/ ('Accept-EnCoding','gzip,deflate'))opener = urllib.request.build_opener(urllib.request.httpcookieProcessor())for h in headers: opener.addheaders.append(x)data = 'some logging data' #username,pw etc.opener.open('somesite/login.PHP,data)res = opener.open(someurl)data = res.read()... some stuff here...res1 = opener.open(someurl2)data = res1.read()etc. 这是怎么回事;
我不停地从服务器获取gzipped响应并且我保持登录状态(我正在获取一些如果我没有登录则无法使用的内容)但我认为每个请求openner.open之间的连接都在下降;
我认为,因为连接速度非常慢,似乎每次都有新的连接.两个问题:
a)如何测试连接是否保持活着/死亡
b)如何在请求其他网址之间保持活力?
照顾自己 :)
解决方法 这将是一个非常延迟的答案,但是:您应该看到urllib3.它适用于Python 2.x,但是当您看到他们的README文档时,您会明白这一点.
是的,默认情况下urllib不会保持连接活着,我现在正在为Python 3实现urllib3以保留在我的工具包中:)
总结以上是内存溢出为你收集整理的如何使用python urllib在HTTP / 1.1中保持活力全部内容,希望文章能够帮你解决如何使用python urllib在HTTP / 1.1中保持活力所遇到的程序开发问题。
如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)