如何屏蔽搜索引擎抓取?

[复制链接]
查看3931 | 回复4 | 2020-4-19 16:20:05 | 显示全部楼层 |阅读模式
作网站运营尤其是网站排名优化的时候,我们总想着如何来引导搜索引擎蜘蛛来爬行网页,收录。然而,很多时候一些网站因为所真对的用户群体和目标地区不同,并不希望获得搜索引擎的光顾,这个时候我们要如何来解决呢?今天和笔者小丹一起来研究一下吧!

    当我们看到要屏蔽抓取的时候,大多数SEOer想到的都是robots.txt文件。因为在我们的认知中,robot文件可以有效的杜姐搜索引擎抓取某些页面。但是要知道,虽然这个方式很不错,但是更多时候小丹认为它比较适合于在网站没有完成,为了避免之后的死链或者考察期而存在的。
    若单单为了屏蔽某个搜索引擎的抓取,我们大可不必为空间造成负累,只要使用一点简单的代码即可。例如,我们要屏蔽百度蜘蛛的抓取<meta name="Baiduspider" content="noarchive">即可。当然这仅仅是屏蔽百度抓取的方式,如果想要任何一个搜索引擎,只要将Baiduspider更换为改搜索引擎的蜘蛛即可。
    常见搜索引擎蜘蛛名称如下:
    1、baiduspider    百度的综合索引蜘蛛
    2、Googlebot     谷歌蜘蛛
    3、Googlebot-Image    专门用来抓取图片的蜘蛛

    4、Mediapartners-Google     广告联盟代码的蜘蛛
    5、Yahoo Slurp    雅虎蜘蛛
    6、Yahoo! Slup China     雅虎中国蜘蛛
    7、Yahoo!-AdCrawler     雅虎广告蜘蛛
    8、YodaoBot    网易蜘蛛
    9、Sosospider     腾讯SOSO综合蜘蛛
    10、sogou spider     搜狗综合蜘蛛
    11、MSNBot Live    综合蜘蛛
    但,如果你要屏蔽所有的搜索引擎,那么就要使用robot文件了:<meta name="robots" content="noarchive">。
    到这里很多朋友获取应该明白了,在代码中禁止建立网页快照的命令是noarchive。所以,如果我们对于搜索引擎有限制,就根据自己的禁止快照对象,将代码加在网页的<head>与</head>直接即可;反之,在不要添加任何一条代码,就可以保证各大搜索引擎能够正常访问网站并且建立快照。
     (转载请注明转自:笔者小丹,谢谢!珍惜别人的劳动成果,就是在尊重自!)
————————————————
版权声明:本文为CSDN博主「canyueyunlei」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/canyueyunlei/java/article/details/50379434

未来赚论坛免责声明:访客及用户必看
下载说明:点我捐助本站VIP回复本贴即可获取下载地址
注意:资源文件夹或视频里有他人联系方式或水印,添加前请谨慎!私下联系交易有损失的,本站不负责!
本文章/资源等转载于网络,版权归原作者所有!
若有疑问请看下面三条详细协议!
①用户协议 ②免责声明 ③使用条款

相关帖子

未来创论坛将为您提供最新、最全面的创业项目、创业资讯,让您在千万创业项目中找到合适自己的项目,在互联网上创造属于自己的一笔财富。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则