搜索引擎优化有很多活动部分,以至于看起来,一旦我们完成了网站的某个部分的优化,我们就必须回到我们刚刚工作的部分。
一旦你走出“我是新来的”阶段,并觉得你有一些真正的 SEO 经验,你可能会开始觉得有些事情你可以花更少的时间来纠正。
可索引性和爬网预算可能是其中两件事,但忘记它们将是一个错误。
我们总是喜欢说一个有索引问题的网站是一个有自己方式的网站。该网站无意中告诉搜索引擎不要对其页面进行排名,因为它们没有正确加载或重定向太多次。
如果您认为自己不能或不应该将时间花在修复网站可索引性这一绝对不那么迷人的任务上,请再想一想。
可索引性问题可能导致您的排名直线下降,并且您的网站流量迅速枯竭。
因此,您的抓取预算必须放在首位。
在这篇文章中,我们将向您介绍 1 个技巧,以便您在提高网站的可索引性时考虑。
1. 使用百度站长工具跟踪抓取状态
抓取状态中的错误可能表明您的网站存在更深层次的问题。
每 30-60 天检查一次抓取状态对于识别影响网站整体营销绩效的潜在错误非常重要。
这实际上是 SEO 的第一步;没有它,所有其他努力都是徒劳的。
常见的抓取错误和解决方案
如果您的网站不幸遇到爬网错误,则可能需要一个简单的解决方案,或者表明您的网站存在更大的技术问题。
我看到的最常见的抓取错误是:
DNS 错误。
服务器错误。
Robots.txt 错误。
404 错误。
要诊断其中一些错误,您可以利用抓取诊断查看百度如何查看您的网站。
未能正确获取和呈现页面可能表明存在更深层次的 DNS 错误,需要由您的 DNS 提供商解决。
解决服务器错误需要诊断特定错误。最常见的错误包括:
暂停。
拒绝连接。
连接失败。
连接超时。
没有反应。
大多数情况下,服务器错误通常是暂时的,尽管持续存在的问题可能需要您直接联系您的托管服务提供商。
另一方面,Robots.txt错误可能会给您的网站带来更多问题。如果您的 robots.txt 文件返回 200 或 404 错误,则意味着搜索引擎难以检索此文件。
您可以提交 robots.txt 站点地图或完全避免该协议,选择手动noindex 页面,这可能会给您的抓取带来问题。
快速解决这些错误将确保您的所有目标页面在下次搜索引擎抓取您的网站时被抓取并编制索引。
2. 创建适合移动设备的网页
我们还必须优化我们的页面以在移动索引上显示适合移动设备的内容。
如果不存在适合移动设备的内容,桌面内容仍将被索引并显示在移动索引下。但您的排名可能会因此受到影响。
有许多技术调整可以立即使您的网站更加适合移动设备,包括:
实施响应式网页设计。
在内容中插入视点元标记。
缩小页面资源(CSS 和 JS)。
使用 AMP 缓存标记页面。
优化和压缩图像以加快加载时间。
减小页面 UI 元素的大小。
请务必在移动平台上测试您的网站并通过 Google PageSpeed Insights 运行它。页面速度是一个重要的排名因素,会影响搜索引擎抓取您网站的速度。
3. 定期更新内容
如果您定期生成新内容,搜索引擎会更频繁地抓取您的网站。
这对于需要定期发布和索引新故事的出版商特别有用。
定期生成内容向搜索引擎发出信号,表明您的网站正在不断改进和发布新内容,因此需要更频繁地抓取以覆盖其目标受众。
4. 向每个搜索引擎提交站点地图
迄今为止,建立索引的最佳技巧之一仍然是向每个搜索引擎工具提交站点地图。
您可以使用站点地图生成器创建XML 版本,也可以通过标记包含重复内容的每个页面的规范版本在工具中手动创建一个。
5.优化您的互连方案
建立一致的信息架构对于确保您的网站不仅被正确索引而且还被正确组织至关重要。
创建相关网页可以放置的主要服务类别可以进一步帮助搜索引擎在意图可能不明确时正确索引某些类别下的网页内容。
6. 独立网页的深层链接
如果您网站或子域上的网页是单独创建的,或者出现错误阻止其被抓取,您可以通过获取外部域上的链接来将其编入索引。
这是一种特别有用的策略,可以在您的网站上推广新内容并更快地对其进行索引。
谨防联合内容来完成此操作,因为搜索引擎可能会忽略联合页面,如果未正确规范化,可能会产生重复错误。
7. 减少页面资源并增加加载时间
强制搜索引擎抓取大型且未优化的图像会消耗您的抓取预算并阻止您的网站被频繁索引。
搜索引擎也难以抓取您网站的某些后端元素。例如,百度一直在努力抓取JavaScript。
甚至某些资源(如 Flash 和 CSS)在移动设备上的表现也会很差,并且会耗尽您的抓取预算。
从某种意义上说,这是一个双输的场景,页面速度和抓取预算被牺牲在页面上的突兀元素。
确保通过缩小页面资源(例如 CSS)来优化您的网页以提高速度,尤其是在移动设备上。您还可以启用缓存和压缩以帮助蜘蛛更快地抓取您的网站。
8. 使用 Noindex 标签修复页面
在您的网站开发过程中,在可能重复的页面上实施 noindex 标签可能是有意义的,或者仅适用于执行特定操作的用户。
无论如何,您可以使用免费的在线工具(例如 Screaming Frog)来识别带有 noindex 标签的网页,这些标签会阻止它们被抓取。
9. 消除重复内容
拥有大量重复内容会显着降低您的抓取速度并消耗您的抓取预算。
您可以通过阻止这些页面被索引或在您希望被索引的页面上放置规范标签来消除这些问题。
同样,优化每个单独页面的元标记是值得的,以防止搜索引擎在其抓取过程中将相似页面误认为是重复内容。
10. 阻止您不想让蜘蛛抓取的页面
在某些情况下,您可能希望阻止搜索引擎抓取特定页面。您可以通过以下方法完成此操作:
放置一个noindex标签。
将 URL 放在 robots.txt 文件中。
完全删除页面。
这也可以帮助您的爬网更有效地运行,而不是强迫搜索引擎倾倒重复的内容。
卡盟收录网是十大卡盟排行榜官方平台,口碑信誉好的卡盟平台,欢迎卡盟站长在卡盟收录网中投放广告。
版权免责声明: 本站内容部分来源于网络,请自行鉴定真假。如有侵权,违法,恶意广告,虚假欺骗行为等以上问题联系我们删除。
本文地址:https://kamengsl.com/article/view/1240.html