|
Post by account_disabled on Mar 18, 2024 23:45:57 GMT -6
解决所有问题如何处理重复内容这是年月日发布的一个有趣的网站站长帮助视频回答了以下问题如果每天抓取个页面抓取许多重复内容页面可能会减慢大型网站的索引速度。在这种情况下您是否建议使用阻止重复内容还是使用是更好的替代方案答案有点跳跃但这里引用一下我相信如果您要与我们的爬行和索引团队交谈他们通常会说看让我们爬行所有内容我们将找出网站的哪些部分是受骗的因此哪些子树是受骗的并且我们会将其结合在一起。然而如果您使用阻止某些内容我们将无法抓取它因此我们永远看不到它是一个骗局。然后你可以看到完整的页面然后有时你会看到这些未爬行的我们看。 到了但我们无法爬行它们并发现它是一个骗局。我真的会尝试让谷歌抓取页面看看我们是否可以自己找出这些骗局。何废物之前你应该给一个机会看看他们是否能最终解决这个问题。然后谷歌在没有更新上述建议的情况下推出了熊猫更新并解雇了数万名遵循当时谷歌最佳实践的 哥伦比亚电话号码列表 网站管理员。仅在经历了几个月的巨大痛苦之后谷歌才在他们的博客上正式建议您现在应该阻止他们对此类低价值页面建立索引。马特的视频还建议了网站管理员可以采取的其他一些解决方案例如重新架构他们的网站或使用网站管理员工具中的参数处理但听起来谷歌默认情况下。 到这一点绝非异常。这些建议没有考虑到未来。搜索工程师做什么的谷歌的问题在于无论他们信任什么它都会被滥用。这就是为什么他们不断尝试将更多信号纳入搜索以及为什么他们愿意做出通常看起来既武断又不公正的重大改变。搜索工程师非常擅长公共关系。搜索工程师所做的很大一部分工作就是通过来管理市场。如果你可以让别人免费为你做你的工作那么这比你自己解决所有问题更有利可图。搜索工程师非常擅长编写代码。搜索工程师所做的很多事情都是反动的。有些事情会失去控制并且非常明显以至于不起作用因此他们需要用新算法来解决它们。大多数搜索引擎信号是通过跟踪。
|
|