我是否因网站和服务器错误而导致导航困难

22 人阅读 | 0 人回复

发表于 2023-10-28 16:05:33 | 显示全部楼层 |阅读模式

这里你要分析什么? 您有多少个“正常”页面? 你有多少个404页面? 页面状态有意义吗?或者他应该是其他人? 代码为 200 的页面与用户相关吗? 此分析可以帮助您识别常见问题: 301 定位过多; 不相关的 301 重定向(不相关的页面相互定向); 代码为 200 的页面应该处于离线状态; 第404页应该播出; 网站和服务器错误(400 和 500); 被 robots.txt 阻止的页面。 以用户为中心的可追溯性 请记住,焦点是您的客户。进入您网站的人。 因此,在分析上述数据时,请考虑以下几点: 我是否提供了适当的页面? 我是否删除了重要页面? 我的指挥合理吗? 我是否因网站和服务器错误而导致导航困难? 如有必要,请致电您的网站开发人员寻求帮助并进行更正。

以 Google 为中心的可追溯性 我们不会在这里详细介绍机器人的工作原理,但您需要了解以下内容: 搜索引擎并不总是抓取您的所有页面。 这意味着什么? 这意味着谷歌机器人与人类并 澳洲华人电话号码表 没有太大区别。 他进入您的网站并搜索其中的所有内容。 但有一个限制。在这一点上,Googlebot 要么知道它已经跟踪了它需要的内容,要么意识到它将使服务器过载。会发生什么?它停止跟踪。 现在,假设您的网站有 100,000 个页面。其中,10,000 个至关重要。它们产生流量、潜在客户和销售。



仅搜索引擎进入你的网站并爬行的就只有5万个。把这些更具战略意义的事情排除在外。不错吧? 那怎么解决这个问题呢?优化“抓取预算”,或类似“抓取预算”的内容。 优化抓取预算 有更高级和详细的方法可以做到这一点,但首先,您的公司可以做的最基本的事情是设置“ robots.txt ”文件。 这是一个位于服务器根目录的文件,告诉机器人应该抓取哪些页面,不应该抓取哪些页面。 这是我们的一个例子: 示例 robots.txt 正如您可能已经猜到的,“Disallow”命令正是将目录定义为“不可追踪”的。 通过这样做,您可以确保 Googlebot 不会花时间抓取与您的受众无关的内容。

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Mijan01190@

发表主题 1

发帖