
思路二,自己做一个桌面浏览器,IE内核。用这个浏览器登录web微信,这个微信帐号关注你想抓取的公众号,这样就可以监控到是这些公众号是否已更新,更新后链接是什么,从而达到抓取数据的目的。(使用过,效率不高,但非常稳定)
思路三,通过修改android的微信客户端来实现(这个方法是我们曾经使用过一段时间的)
思路四,想办法越过验证直接取到链接,再通过链接取到数据。数据包的长度都是62个字节。数据包前12个字节包括了目的MAC和源MAC的地址信息,紧跟着的2字节指出了数据包的类型,0800代表的是IP包格式,0806代表ARP包格式。接着的20个字节是封装的IP包头,包括了源、目的IP地址、IP版本号等信息。剩下的28个字节封装的是TCP包头,包括了源、目的端口,TCP链接的状态信息等。这就构成了一个62字节的包。可以看出除了这些包头数据之外,这个包没有携带其他任何的有效数据负荷,所以这是一个TCP要求445端口同步的空包,也就是病毒主机在扫描445端口。一旦染毒主机同步上没有采取防护措施的主机445端口,便会利用系统漏洞传播感染。
经常有朋友需要帮忙做公众号文章爬取,这次来做一个各种方法的汇总说明。
目前爬取微信公众号的方法主要有3种:
通过爬取第三方的公众号文章聚合网站
通过微信公众平台引用文章接口
通过抓包程序,分析微信app访问公众号文章的接口
通过第三方的公众号文章聚合网站爬取
微信公众号文章一直没有提供一个对外的搜索功能,直到2013年微信投资搜狗之后,搜狗搜索接入微信公众号数据,从此使用搜狗搜索就可以浏览或查询到相关公众号以及文章。
域名是: >
可以直接搜索公众号或者文章的关键字,一些热门的公众号更新还是很及时的,几乎做到了和微信同步。
所以,爬一些热门公众号可以使用搜狗微信的接口来做,但是一些小众公众号是搜索不到的,而且搜狗的防爬机制更新的比较勤,获取数据的接口变化的比较快,经常两三个月就有调整,导致爬虫很容易挂,这里还是建议使用 selenium爬比较省心。另外搜狗对每个ip也有访问限制,访问太频ip会被封禁24小时,需要买个ip池来做应对。
还有一些其他公众号文章聚合网站(比如传送门)也都存在更新不及时或者没有收录的问题,毕竟搜狗这个亲儿子都不行。
通过微信公众平台引用文章接口
这个接口比较隐蔽而且没法匿名访问,所有得有一个公众号,建议新注册一个公众号比较好,免得被封。
下面开始具体步骤:首先登录自己的微信公众号,在进去的首页选择 新建群发,然后再点击 自建图文,在文章编辑工具栏中找到 超链接,如下图:
点击这个超链接按钮,就会d出一个对话框,链接输入方式这一项选中 查找文章,如下图:
到这里就可以输入公众号的名字,回车之后微信就会返回相匹配的公众号列表,接着点击你想抓取的公众号,就会显示具体的文章列表了,已经是按时间倒序了,最新的文章就是第一条了。
微信的分页机制比较奇怪,每个公众号的每页显示的数据条数是不一样的,分页爬的时候要处理一下。
通过chrome分析网络请求的数据,我们想要的数据已经基本拿到了,文章链接、封面、发布日期、副标题等,如
由于微信公众平台登录验证比较严格,输入密码之后还必须要手机扫码确认才能登录进去,所以最好还是使用 selenium做自动化比较好。具体微信接口的分析过程我就不列了,直接贴代码了:
import re
import time
import random
import traceback
import requests
from selenium import webdriver
class Spider(object):
'''
微信公众号文章爬虫
'''
def __init__(self):
# 微信公众号账号
selfaccount = '286394973@qqcom'
# 微信公众号密码
selfpwd = 'lei4649861'
def create_driver(self):
'''
初始化 webdriver
'''
options = webdriverChromeOptions()
# 禁用gpu加速,防止出一些未知bug
optionsadd_argument('--disable-gpu')
# 这里我用 chromedriver 作为 webdriver
# 可以去 >
selfdriver = webdriverChrome(executable_path='/chromedriver', chrome_options=options)
# 设置一个隐性等待 5s
selfdriverimplicitly_wait(5)
def log(self, msg):
'''
格式化打印
'''
print('------ %s ------' % msg)
def login(self):
'''
登录拿 cookies
'''
try:
selfcreate_driver()
# 访问微信公众平台
selfdriverget('>
# 等待网页加载完毕
timesleep(3)
# 输入账号
selfdriverfind_element_by_xpath("///input[@name='account']")clear()
selfdriverfind_element_by_xpath("///input[@name='account']")send_keys(selfaccount)
# 输入密码
selfdriverfind_element_by_xpath("///input[@name='password']")clear()
selfdriverfind_element_by_xpath("///input[@name='password']")send_keys(selfpwd)
# 点击登录
selfdriverfind_elements_by_class_name('btn_login')[0]click()
selflog("请拿手机扫码二维码登录公众号")
# 等待手机扫描
timesleep(10)
selflog("登录成功")
# 获取cookies 然后保存到变量上,后面要用
selfcookies = dict([[x['name'], x['value']] for x in selfdriverget_cookies()])
except Exception as e:
tracebackprint_exc()
finally:
# 退出 chorme
selfdriverquit()
def get_article(self, query=''):
try:
url = '>
# 设置headers
headers = {
"HOST": "mpweixinqqcom",
"User-Agent": "Mozilla/50 (Macintosh; Intel Mac OS X 10_14_3) AppleWebKit/53736 (KHTML, like Gecko) Chrome/7203626109 Safari/53736"
}
# 登录之后的微信公众号首页url变化为:>
# 从这里获取token信息
response = requestsget(url=url, cookies=selfcookies)
token = refindall(r'token=(\d+)', str(responseurl))[0]
timesleep(2)
selflog('正在查询[ %s ]相关公众号' % query)
search_url = '>
# 搜索微信公众号接口需要传入的参数,
# 有三个变量:微信公众号token、随机数random、搜索的微信公众号名字
params = {
'action': 'search_biz',
'token': token,
'random': randomrandom(),
'query': query,
'lang': 'zh_CN',
'f': 'json',
'ajax': '1',
'begin': '0',
'count': '5'
}
# 打开搜索微信公众号接口地址,需要传入相关参数信息如:cookies、params、headers
response = requestsget(search_url, cookies=selfcookies, headers=headers, params=params)
timesleep(2)
# 取搜索结果中的第一个公众号
lists = responsejson()get('list')[0]
# 获取这个公众号的fakeid,后面爬取公众号文章需要此字段
fakeid = listsget('fakeid')
nickname = listsget('nickname')
# 微信公众号文章接口地址
search_url = '>
# 搜索文章需要传入几个参数:登录的公众号token、要爬取文章的公众号fakeid、随机数random
params = {
'action': 'list_ex',
'token': token,
'random': randomrandom(),
'fakeid': fakeid,
'lang': 'zh_CN',
'f': 'json',
'ajax': '1',
'begin': '0', # 不同页,此参数变化,变化规则为每页加5
'count': '5',
'query': '',
'type': '9'
}
selflog('正在查询公众号[ %s ]相关文章' % nickname)
# 打开搜索的微信公众号文章列表页
response = requestsget(search_url, cookies=selfcookies, headers=headers, params=params)
timesleep(2)
for per in responsejson()get('app_msg_list', []):
print('title ---> %s' % perget('title'))
print('link ---> %s' % perget('link'))
# print('cover ---> %s' % perget('cover'))
except Exception as e:
tracebackprint_exc()
if __name__ == '__main__':
spider = Spider()
spiderlogin()
spiderget_article('python')
代码只是作为学习使用,没有做分页查询之类。实测过接口存在访问频次限制,一天几百次还是没啥问题,太快或者太多次访问就会被封24小时。
鲲之鹏的技术人员之前曾介绍过Web协议调试神器Fiddler,它最强大的地方就是能够抓取并明文展示>欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)