|
Post by account_disabled on Dec 12, 2023 5:41:13 GMT
在哪里可以找到 robots txt 文件? 原则上所有网站都应该有这个文件。然而,有些平台没有,可能是因为业主不知道它的用处。幸运的是,大多数 CMS 都会自动集成它,这样网站设计者就不必自己创建它。无论如何,robots.txt 文件通常位于网站的根目录下。因此,如果您有一个可通过 yoursite.com 访问的网站,您将在 yoursite.com/robots.txt 中找到该文件。如果文件的内容按预期存在于站点的根目录中,则将显示该文件的内容。另一方面,如果您注意到显示 404 错误页面,则根目录中可能缺少该页面。在这种情况下,你必须考虑创建它。 如何创建您的文件? 您不需要特定的程序来创建它。 像记事本(在 Windows 上)或 TextEdit(在 macOS 上)。确保正确命名文件,不要遗漏任何 WhatsApp 号码数据 字母。在这方面,末尾的“s”非常重要。如果你忘记了,它就不起作用。创建后,您必须将其放置在站点的根级别。为此,您可以在两种可能性之间进行选择。第一个选项是连接到平台的主机并访问文件管理器。第二种方法是 Web 开发人员首选的方法,包括使用 FTP 客户端(例如 FileZilla)直接与站点服务器进行通信。 填写文件的一些基本规则 将其放置在网站的根目录后,剩下的就是根据艺术规则填充它。首先,您应该知道该文件由两个指令控制。 “User-agent”指令:这是一条命名不同搜索引擎机器人的规则,这些机器人有权遵循文件中规定的说明。当我们为该指令分配符号“*”时,我们就授权所有机器人进行访问。如果需要,您可以指定Googlebot和 Bingbot 属性。仅考虑这两个机器人。 “Disallow”指令:主要用于向“用户代理”指示不应探索资源。 如果“禁止”指令不存在,机器人通常会抓取整个网站。 robots txt 文件对于网站 SEO 的重要性 一般来说,对于您的自然引用,有两个主要原因可以解释 robots.txt 文件的重要性。 Google 更容易识别重要页面 为了让 Google 和其他搜索引擎轻松索引您的网站,它们必须首先识别感兴趣的页面。robots.txt 文件允许您选择希望引擎探索的网站的不同资源。因此,以谷歌为例,它将专注于必要的资源。任何您认为无趣的内容,谷歌都会丢弃它并优先考虑您最相关的内容。但是,您应该知道,有时引擎(尤其是 Google)决定探索甚至索引您认为不相关的某些页面。 控制抓取时间 该文件可以更轻松地控制搜索引擎应抓取的内容量。
|
|