百度推出官方Robots.txt测试工具
如果您知道某些现有网站上的错误,则百度建议仔细检查这些网站的robots.txt文件。一个常见的问题来自阻止CSS,JavaScript或移动内容的旧robots.txt文件。
robots.txt文件是您的网站搜索引擎优化的关键组成部分,但有时这些文件会造成 弊大于利。例如,您的robots.txt文件可能阻止搜索引擎蜘蛛抓取您网站上的重要网页,或者可能阻止您的网站被完全编入索引。
百度希望让您更容易检测到这些类型的错误,这就是为什么他们今天宣布他们正在网站管理员工具中重新启动更新的robots.txt测试工具。您可以在抓取部分的网站站长工具中找到更新的测试工具。
使用新工具,您将看到当前的robots.txt文件,并且可以测试特定的网址,以查看他们是否被禁止抓取。该工具将引导用户浏览robots.txt文件中的复杂指令,并突出显示导致百度botZui终决定的特定指令。
您可以使用新工具在文件中进行更改,并随时测试更改。一切正常后,只需将新版本的文件上传到服务器即可使更改生效。
如果您知道某些现有网站上的错误,则百度建议仔细检查这些网站的robots.txt文件。一个常见的问题来自阻止CSS,JavaScript或移动内容的旧robots.txt文件。一旦发现这些问题,它通常只是解决问题的简单方法。
百度的John Mueller插话讨论并说他建议你试试这个新工具,即使你确定你的robots.txt文件没问题。
其中一些问题可能很微妙,容易错过。在您使用它的同时,还要仔细检查您网站的重要网页如何使用百度bot呈现,以及您是否意外阻止任何JS或CSS文件进行抓取。
有关机器人的详细信息。 txt,here’网站管理员帮助页面,介绍如何处理文件。
CategoryNews