死链,字面理解就是死的链接,既然是死的,那么就要让它活过来,要么就删除掉。它会影响搜索引擎的抓取,降低搜索引擎的信任度。如果把网站比作一个人的身体的话,那么死链就是人身体上长的一颗大“肿瘤”,每一个站长都必须动刀切除掉!
死链是如何产生,可能归结于时间的错。以前做的一些链接,随着时间转移,链接的文章可能过时或不经意删掉的文章,死链就产生了。做网站不可能避免相互链,特别是内链对SEO的影响优化重要,完全可以与外链相比拟。
通常,死链接可分为两种:一种是下载死链,另一种是网页死链。
下载死链是指服务器地址跟换了,无法找到当时的文件,或者是把文件下了URL没有撤销;
网页链接则是指链接在生成的时候是正常的,后面又失效了。
1、动态链接的设置。因为数据库不支持动态链接,所认为这是导致死链的发生的原因。运用静态的网页设置网页某文件或页面移动了方位,导致指向它的链接变成死链接,亦或是某文件夹称号修正,途径错了也会变成死链。
2、死链的发生会导致用户体验变差,会面临着被百度降权的可能,且搜索引擎不会给予网站很好的排名,所以,站长需要定时使用站长工作去查看死链,并及时的做出修正或许删去。
首先说到死链我们要先了解死链对于网站有那些影响,就从用户的角度上来说,很多看似能够正常打开的链接确不能打开,这会致使网站的跳出率变得很高,极大程度上的降低网站对于用户的黏度;从搜索引擎的角度上来说死链的出现会造成蜘蛛爬行不顺畅,这样会使得自身网站很对内容不能被爬到,直接的影响就是网站收录降低,进而影响网站排名,影响搜索引擎对我们的好感度。
通过robots协议能否禁止蜘蛛爬取死链?
可以肯定的讲是能禁止的,百度方面会严格遵循robots协议。如果对此有怀疑,建议先核对是否是百度的蜘蛛在爬取死链。
如果有死链被蜘蛛爬取了,是否还可以用robots协议来让蜘蛛屏蔽,删除这些无效的链接?
这个方法有效但不建议使用,最好的方法是使用百度站长平台的死链提交工具,通知搜索引擎这些链接是死链。
有些seo优化人员发现一个问题,那就是死链已经通过相关工具进行处理,但在分析网站日志时,依旧发现有蜘蛛爬取的痕迹,这是什么情况?
并不是说将死链提交给搜索引擎就完事了,搜索引擎蜘蛛也没有那么智能。产生这个问题的原因在于蜘蛛会再次判定提交的死链是否为真正的死链,会抽取其中的一部分进行再次验证,通过结果在做下一步的处理。
这要分情况,如果网站的死链数量特别巨大,且没有利用robots协议,这种情况下蜘蛛会耗费大量的资源来抓取死链,从而减少正常内容的抓取配额;反之亦反。
我是乐建,欢迎大家关注乐建网创军团,创业知识分享,只讲人人都可上手的创业赚钱方法,分享最接地气的SEO赚钱实战干货。专注自媒体创业、营销、变现等各类干货分享。关注我,学习更多。