
用get_cookie方法取不到值.改成get_cookies吧!
driver = webdriverFirefox()
driverget('')
cookies = driverget_cookies()
print(cookies[0]["domain"])
关于知乎验证码登陆的问题,用到了Python上一个重要的处理库PIL,如果不行,就把存到本地,手动输入。
通过对知乎登陆是的抓包,可以发现登陆知乎,需要post三个参数,一个是账号,一个是密码,一个是xrsf。
这个xrsf隐藏在表单里面,每次登陆的时候,应该是服务器随机产生一个字符串。所有,要模拟登陆的时候,必须要拿到xrsf。
用chrome (或者火狐 >
1 保存cookie到文件中
cookies = selfbrowserget_cookies()
jsonCookies = jsondumps(cookies)
with open('cookiesjson', 'w') as f:
fwrite(jsonCookies)
2从文件中读取cookie
selfbrowserget(selfstart_url)
selfbrowserdelete_all_cookies()
with open('cookiesjson', 'r', encoding='utf-8') as f:
listCookies = jsonloads(fread())
for cookie in listCookies:
selfbrowseradd_cookie({
'domain': cookie['domain'],
'name':cookie['name'],
'value':cookie['value'],
'path':'/',
'expires':None
})
selfbrowserget(selftarget_url)
#import cookielib
from urllib2 import Request, build_opener, >
ck = cookielibMozillaCookieJar() ckload('#cookpath') opener = urllib2build_opener(urllib2>
Cookie是指某些网站为了辨别用户身份、进行session跟踪而储存在用户本地终端上的数据(通常经过加密)。比如说有些网站需要登录后才能访问某个页面,在登录之前你想抓取某个页面内容是不允许的。那么可以利用Urllib库保存登录的Cookie,然后再抓取其他页面,这样就达到了你的目的。爬虫过程中只用python来保存cookie信息模拟登录是不行的,爬虫限制有很多,例如同一IP短时间内多次访问同一页面,或者同一账户短时间内多次进行相同 *** 作等等。
以上就是关于python webdriver 怎么取cookies中的某一个值全部的内容,包括:python webdriver 怎么取cookies中的某一个值、Python爬取知乎与我所理解的爬虫与反爬虫、python+seleniu如何记录cookies等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)