01.Python网络爬虫概述

01.Python网络爬虫概述,第1张

概述网络爬虫概述:网络爬虫(WebSpider)又称网络蜘蛛、网络机器人,是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。网络爬虫按照系统结构和实现技术,大致可分为一下集中类型:通用网络爬虫:就是尽可能大的网络覆盖率,如搜索引擎(百度、雅虎和谷歌等…)。聚焦网络爬虫:有目 网络爬虫概述:网络爬虫(Web SpIDer)又称网络蜘蛛、网络机器人,是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。网络爬虫按照系统结构和实现技术,大致可分为一下集中类型:通用网络爬虫:就是尽可能大的网络覆盖率,如 搜索引擎(百度、雅虎和谷歌等…)。聚焦网络爬虫:有目标性,选择性地访问万维网来爬取信息。增量式网络爬虫:只爬取新产生的或者已经更新的页面信息。特点:耗费少,难度大深层网络爬虫:通过提交一些关键字才能获取的Web页面,如登录或注册后访问的页面。注:实际工作中通常是几种爬虫技术结合实现。应用场景:

爬虫技术在科学研究Web安全产品研发舆情监控等领域可以做很多事情。

在数据挖掘、机器学习、图像处理等科学研究领域,如果没有数据,则可以通过爬虫从网上抓取;

在Web安全方面,使用爬虫可以对网站是否存在某一漏洞进行批量验证、利用;

在产品研发方面,可以采集各个商城物品价格,为用户提供市场最低价;

在舆情监控方面,可以抓取、分析新浪微博的数据,从而识别出某用户是否为水军

 学习爬虫前的技术准备:

(1). Python基础语言: 基础语法、运算符、数据类型、流程控制、函数、对象 模块、文件 *** 作、多线程、网络编程 … 等

(2). W3C标准: HTML、CSS、JavaScript、Xpath、JsON

(3). http标准: http的请求过程、请求方式、状态码含义,头部信息以及cookie状态管理

(4). 数据库: sqlite、MysqL、MongoDB、Redis …

 关于爬虫的合法性:

几乎每个网站都有一个名为robots.txt的文档,当然也有有些网站没有设定。对于没有设定robots.txt的网站可以通过网络爬虫获取没有口令加密的数据,也就是该网站所有页面的数据都可以爬取。如果网站有文件robots.txt文档,就要判断是否有禁止访客获取数据 如:https://www.taobao.com/robots.txt

总结

以上是内存溢出为你收集整理的01.Python网络爬虫概述全部内容,希望文章能够帮你解决01.Python网络爬虫概述所遇到的程序开发问题。

如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。

欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/langs/1188066.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2022-06-03
下一篇2022-06-03

发表评论

登录后才能评论

评论列表(0条)

    保存