欢迎光临 - 我的站长站,本站所有资源仅供学习与参考,禁止用于商业用途或从事违法行为!

网站优化

Robots.txt禁止垃圾流氓蜘蛛大全

网站优化 我的站长站 2023-04-24 共30人阅读

这里主要介绍的Robots.txt方法来禁止垃圾流氓蜘蛛,Robots.txt方法只能针对遵循此规则的蜘蛛,添加到Robots.txt文件内即可,代码如下:

User-agent: AhrefsBot
Disallow: /
User-agent: DotBot
Disallow: /
User-agent: SemrushBot
Disallow: /
User-agent: Uptimebot
Disallow: /
User-agent: MJ12bot
Disallow: /
User-agent: MegaIndex.ru
Disallow: /
User-agent: ZoominfoBot
Disallow: /
User-agent: Mail.Ru
Disallow: /
User-agent: SeznamBot
Disallow: /
User-agent: BLEXBot
Disallow: /
User-agent: ExtLinksBot
Disallow: /
User-agent: aiHitBot
Disallow: /
User-agent: Researchscan
Disallow: /
User-agent: DnyzBot
Disallow: /
User-agent: spbot
Disallow: /
User-agent: YandexBot
Disallow: /
User-agent: DataForSeoBot
Disallow:

大部分流氓蜘蛛只所以叫流氓,就是他们根本不认这个,所以我的站长站建议大家使用禁止IP的方法最为保险。

标签 Robots
相关推荐
  • Robots
  • robots.txt怎么设置不暴露敏感文件路径

    robots是网站跟爬虫间的协议文件,robots.txt可以用来告诉对应的爬虫被允许的权限,是搜索引擎中访问网站的时候第一个要查看的文件。robots.txt文件也可以用来限制搜索引擎不乱抓取,只抓取我们希望被收录的内容的。比如我们网站的后台就不希望被搜索抓取...

    经验分享 1130 5年前
  • 帝国CMS-robots.txt文件使用教程

    在说帝国CMS-robots.txt文件使用前先给大家解释下robots.tx是干什么的。 robots协议(也称为爬虫协议、爬虫规则、机器人协议等)也就

    帝国cms教程 667 10年前
  • 网站SEO优化Robots写法

    robots协议是我们的网站与各搜索引擎的一个协议,如果你还不知道robots协议的重要性,那么本片文章你必须认真学习了,因为robots协议对一个网站来说十分重要。那么接下来大家一起来学习什么是robots.txt。一、什么是robots.txt文件1、它是我们的网站与各...

    网站优化 423 6年前
  • robots.txt文件详细教程

    robots文件是网站和各大搜索引擎建立良好沟通的桥梁,也是网站从搜索引擎获得流量的开端第一步,因为robots的设置不当,很有可能会失去很大一部分的流量。对于SEO优化的从业者或者是爱好者,必须要知道其中的原理和设置方法,对于网站管理员及相关的开发技术...

    网站优化 267 4年前
  • robots只能放在根目录吗?

    robots只能放在根目录吗?可以明确地告诉robots文件只能放在网站根目录,关于这一点也是很好理解的,前文提过robots文件就是针对搜索引擎蜘蛛的一种协议(有些蜘蛛不一定会遵守),搜索引擎蜘蛛进入网站都是先从网站根目录,所以robots协议也只有在根目录的时候才...

    网站优化 126 3年前