robot.txt怎么写的,大家都禁止蜘蛛抓去了哪些页面啊?

robot.txt怎么写的,大家都禁止蜘蛛抓去了哪些页面啊?,第1张

User-agent: Disallow: /cgi-bin/Disallow: /asp$Disallow: /php$Disallow: /js$Disallow: /css$Disallow: /wp-admin/Disallow: /wp-includes/Disallow: /wp-content/plugins/Disallow: /wp-content/cache/Disallow: /wp-content/themes/Disallow: /trackback/Disallow: /feedDisallow: /comments/Disallow: //trackback/Disallow: //feedDisallow: //comments/Disallow: ///trackback/Disallow: ///feedDisallow: ///comments/Disallow: ////feedDisallow: /////feedDisallow: //////feedDisallow: /Disallow: //Disallow: ///Disallow: //comment-page-Disallow: /replytocom这个是我的一个wordpress 的写法,把动态页面和 评论页全部禁爬了

可以设置一些页面不让百度进行访问,可是我看你的问题不是这个,既然你网站里没有这些页面,百度蜘蛛怎么可能去访问呢,建议你看一下网站原文件,是否存在这些文件。蜘蛛访问过的404页面百度系统会自动剔除,这个不用担心


欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/yw/12587946.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2025-08-26
下一篇2025-08-26

发表评论

登录后才能评论

评论列表(0条)

    保存