如何在WordPress中为搜索引擎优化robots.txt(初学者指南)

最近,我们的一位读者问我们如何优化robots.txt文件以提高SEO。

该robots.txt文件告诉搜索引擎如何抓取你的网站,这使它成为一个令人难以置信的强大的SEO工具。

在本文中,我们将向您展示如何为SEO创建一个完美的robots.txt文件的一些技巧。

首先,您需要打开编辑选项,方法是将“Enable Custom robots.txt”切换为蓝色。

有了这个开关,你就可以在WordPress中创建一个定制的robots.txt文件。

All in One SEO将在屏幕底部的‘robots.txt预览’部分显示您现有的robots.txt文件。

此版本将显示WordPress添加的默认规则。

这些默认规则告诉搜索引擎不要爬行您的核心WordPress文件,允许机器人对所有内容进行索引,并为它们提供指向站点的XML站点地图的链接。

现在,您可以添加自己的定制规则来改进用于SEO的robots.txt。

要添加规则,请在“用户代理”字段中输入用户代理。使用*将规则应用于所有用户代理。

然后,选择是否允许或禁止搜索引擎爬行。

接下来,在“目录路径”字段中输入文件名或目录路径。

该规则将自动应用于您的robots.txt。若要添加其他规则,只需单击“添加规则”按钮。

我们建议在创建我们上面共享的理想robots.txt格式之前添加规则。

您的自定义规则将如下所示。

一旦你完成了,不要忘记点击‘保存更改’按钮来保存你的更改。

方法2.使用ftp手动编辑robots.txt文件

对于此方法,您将需要使用FTP客户端来编辑robots.txt文件。

只需使用FTP客户端连接到您的WordPress网站文件。

一旦进入,您将能够在您网站的根文件夹中看到robots.txt文件。

如果您没有看到,那么您很可能没有robots.txt文件。

在这种情况下,您可以继续创建一个。

Robots.txt是一个纯文本文件,这意味着你可以将其下载到你的电脑上,然后使用记事本或文本编辑等任何纯文本编辑器对其进行编辑。

保存更改后,您可以将robots.txt文件上传回网站的根文件夹。

只需从下拉列表中选择您的物业即可。

该工具将自动获取您的网站的robots.txt文件,并突出显示错误和警告,如果它发现任何。

最后的想法

优化robots.txt文件的目标是防止搜索引擎抓取未公开提供的页面。例如,wp-plugins文件夹中的页面或WordPress管理文件夹中的页面。

SEO专家普遍认为,屏蔽WordPress类别、标签和档案页面会提高爬行率,导致更快的索引和更高的排名。

这不是真的。这也违反了谷歌的网站管理员指导方针。

我们建议您按照上述robots.txt格式为您的网站创建一个robots.txt文件。

我们希望本文能帮助您了解如何针对SEO优化您的WordPress robots.txt文件。你可能还想看看我们的终极WordPress SEO指南,我们的专家挑选了最好的WordPress SEO工具来发展你的网站。

中国和中国都是如此。

本人擅长Ai、Fw、Fl、Br、Ae、Pr、Id、Ps等软件的安装与卸载,精通CSS、JavaScript、PHP、ASP、C、C++、C#、Java、Ruby、Perl、Lisp、Python、Objective-C、ActionScript、Pascal等单词的拼写,熟悉Windows、Linux、OS X、Android、iOS、WP8等系统的开关机。

通过下面的方式来联系我们:

电邮:138762189@qq.com

联系QQ:点击这里给我发消息

官方站:www.tadke.com

※ ※ 联系请加我的企鹅号 ※※

※ ※技术支持请微信联系站长 ※※

Copyright © 2023 Tadke.com. 琼ICP备20000547号