草庐IT

php - 如何使用 robots.txt 禁止 Codeigniter 中的某些 Controller

我对robots.txt这个话题很陌生。我已经研究了几个小时并尝试实现它。我有一个名为login和view的Controller。我想要的只是谷歌搜索只列出我的ViewController而不是登录Controller。但是现在当我在谷歌中搜索我的网站时,它在View之前显示登录。如何使用robots.txt从Goolge中删除登录信息? 最佳答案 关于robots.txt的很多信息你可以在那里找到:http://www.robotstxt.org/robotstxt.html简单的例子:User-agent:*Disallow:/

seo - 我的 Google Blogger 帖子被 robot.txt 阻止

我创建了一个谷歌博客站点,并且我在那里有27个帖子。我还在谷歌搜索控制台中提交了我的网站。问题是robot.txt文件阻止了我的26个帖子。我通过robot.txt测试器进行了检查,它允许我的所有帖子,但谷歌搜索控制台页面显示我有26个帖子被机器人阻止。我该如何解决这个问题?请帮助我。这是一些截图。截图一截图二 最佳答案 如果您更改了robotstxt以允许它们在WMT中获取并呈现为google。谷歌将在几天内为这些页面编制索引。 关于seo-我的GoogleBlogger帖子被robo

seo - robots.txt 格式禁止所有子 URL 但不允许根 URL 本身

我的应用程序url如下所示http://example.com/app/1http://example.com/app/2http://example.com/app/3...http://example.com/app/n现在我想阻止所有这些URL被抓取,但不阻止http://example.com/app我如何使用robots.txt执行此操作 最佳答案 将以下内容添加到您的robots.txtDisallow:/app/这将允许http://example.com/app但不是http://example.com/app/*您

.htaccess - 如何在 robots.txt 或 .htaccess 上阻止某种类型的 url?

目前在我的网上商店中,在页面太多的类别页面上,url以https://www.example.com?p=2结尾p=3...我想告诉robots.txt不要索引以p=Number结尾的url。我该怎么做呢?顺便说一下,这是一个prestashop网站。谢谢大家。 最佳答案 只需将这一行添加到您的robots.txt文件中:Disallow:/?p=*例如,这将阻止像example.com/?p=2这样的URL被Google之类的网站编入索引。*符号代表所有。所以p=之后的任何内容都将被包含在内。

html - SEO H1 和 IMG 标签问题

我试图在H1和IMGalt中添加一些关键字,但我发现H1标签已用于显示产品名称。我没有编辑产品名称的权限,所以我不能在产品名称后附加关键字。例如,这是我看到的现有解决方案:SummerRoomDiffuserSEOkeywordbeenputhere...它将SEO关键字放在另一个隐藏的H1标签中...它会降低SEO排名吗?是这样,我应该怎么做才能解决它?另一个问题是IMGalt,该页面使用了一些jQuery插件来显示产品图片。因此,产品图片不在IMG标签中,而是在DIV中,如下所示:此外,它放置了一个IMG标签,但将其隐藏。我不确定它是否会影响SEO排名,我该如何改进它?

seo - robots.txt 阻止机器人爬行子目录

关闭。这个问题不符合StackOverflowguidelines.它目前不接受答案。这个问题似乎与helpcenter中定义的范围内的编程无关。.关闭9年前。Improvethisquestion我想阻止所有机器人抓取子目录http://www.mysite.com/admin以及该目录中的任何文件和文件夹。例如,/admin中可能还有更多目录,例如http://www.mysite.com/admin/assets/img我不确定在robots.txt中包含什么是正确的声明来执行此操作。应该是:User-agent:*Disallow:/admin/或者:User-agent:*D

seo - 如何设置允许除主页之外的所有页面的 robots.txt?

如果我有一个名为http://example.com的网站,在它下面我有文章,例如:http://example.com/articles/norwegian-statoil-ceo-resigns基本上,我不希望首页中的文本显示在Google搜索结果中,因此当您搜索“statoilceo”时,您只会得到文章本身,而不是包含此文本但不包含该文本的首页文章本身。 最佳答案 如果您这样做了,那么Google仍然可以显示您的主页,并在链接下方显示一条注释,说明他们无法抓取该页面。这是因为robots.txt不会阻止页面被索引。您不能为主页

seo - 我们无法访问您网站的 robots.txt 文件

我使用谷歌网站管理员验证了我的网站。我在Wordpress中制作了我的网站,并且还添加了robots.txt。现在谷歌在DNS和服务器连接上显示绿色勾号标记,但在robots.txt提取上显示黄色警告标记..我的robots.txt文件是这样的:robotsfile此外,当我在网站管理员中运行robots.txt测试时,它会给出允许的结果。我的网站甚至没有被谷歌搜索到。当我在网站管理员中提交我的网站时,它没有显示错误,但现在显示了。请帮助解决这个问题。 最佳答案 如果您使用wordpress制作您的网站它会自动为你生成一个robot

seo - 使用 robots.txt 阻止来自搜索引擎的 100 多个 url

关闭。这个问题不符合StackOverflowguidelines.它目前不接受答案。这个问题似乎与helpcenter中定义的范围内的编程无关。.关闭5年前。Improvethisquestion我的网站上有大约100个页面,我不想在google中编入索引...有什么方法可以使用robots.txt来阻止它...编辑每个页面会非常烦人并添加noindex元标记....我想阻止的所有url都像...www.example.com/index-01.htmlwww.example.com/index-02.htmlwww.example.com/index-03.htmlwww.exam

seo - robots.txt 网址拦截

这个问题在这里已经有了答案:HowdoIdisallowspecificpagefromrobots.txt(4个答案)关闭5年前。我正在尝试为网页设置robot.txt,但在测试时禁止不起作用想要屏蔽感谢页面http://designs.webelevate.net/wordpress/index.php/contact-thank-page/使用代码不允许:/index.php/contact-thank-page/有什么建议吗?