草庐IT

robot_hunt_maze

全部标签

seo - 使用 robots.txt 仅抓取我的站点地图

我想阻止谷歌抓取我的整个网站-除了站点地图,我可以用它来告诉谷歌优先级和最后更改等。这是一个坏主意吗?我如何在robots.txt中执行此操作? 最佳答案 如果您在Google抓取工具中关闭了全部内容,那么Google也不会抓取Sitemap.xml。谢谢 关于seo-使用robots.txt仅抓取我的站点地图,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.com/questions/12902568/

php - URL 重写和 robots.txt

我已经使urlSEO友好,即http://mydomain.com/topic/title-of-page之前,上面页面的url是http://mydomain.com/search?id=6567889现在Google仍在搜索结果中显示第二个URL。我的问题是,如果我在robots.txt中禁止使用/search,Google会完全停止抓取该页面还是会继续抓取mydomain.com/topic/title-of-page即新URL?非常感谢您的帮助。抱歉URL中的空格,因为SO不允许我发布它们塞布 最佳答案 您会想立即解决这个问

seo - opencart 的 Robot.txt 文件

我的网站是partyhousepong.com,它是一个“opencart”网站。我看到了一些SEO成功,但自从添加了这个robots.txt文件后,我的排名下降了,而且并非我的所有站点地图都被编入索引。你认为我应该删除robot.txt文件吗?我听说有一个SEO很好,所以我有点困惑。这里是:User-agent:*Disallow:/*?sortDisallow:/*&sortDisallow:/*?limitDisallow:/*&limitDisallow:/*?route=checkoutDisallow:/*?route=accountDisallow:/*?route=pr

django - Django 应用程序中无法访问 Robots.txt

收到来自谷歌网站管理员工具的通知,由于“无法访问的robots.txt”,谷歌爬虫机器人已停止抓取一个特定网站。不幸的是,除此之外,谷歌没有提供有关爬虫错误的任何其他详细信息。我有作为我的元标记之一包含在base.html模板中,我为每个Django应用程序都这样做,而且我的任何其他网站都没有这个问题。如果我错了请纠正我,但我也认为robots.txt不是谷歌索引你所必需的。我试图通过安装和配置django-robots(https://github.com/jezdez/django-robots)并将其添加到我的urlconf来解决:(r'^robots\.txt$',includ

apache - 将 Noindex Follow 设置为子域 - robots.txt

我需要设置noindex,跟随到3个子域。我发现您可以在.htaccess中重写,但是您如何处理多个子域?我在服务器上没有看到子域的目录。这是我发现的。RewriteEngineonRewriteCond%{HTTP_HOST}^dev\.qrcodecity\.com$RewriteRule^robots\.txt$robots-dev.txt这会将robots.txt重定向到dev.qrcodecity.com的robots-dev.txt谢谢 最佳答案 您可以为所有选定的子域设置这样的规则:RewriteEngineonRew

web - robots.txt 排除带有语言的路径

例如,如果我想在我的页面上禁止以下路径:http://www.examplepage.com/en/testing但不仅是/en/版本,还有/da/、/de/等(你明白我的意思)。我将如何以最聪明的方式做到这一点?无需为每种语言的相同页面编写禁止。我试过:不允许:/*/testing和不允许:/*测试但我发现它也不允许其他页面,例如:http://www.examplepage.com/en/news-page/testing等等它应该只禁止我在帖子开头指定的路径。 最佳答案 在robots.txt中使用占位符/正则表达式非常有限且

seo - 站点地图包含被 Google 网站站长工具下的 robots.txt 阻止的网址

真的很郁闷。是因为技术错误还是谷歌的缓存效应?我还要再等几天吗?自昨晚以来,我已经多次将我的机器人文件和站点地图更新到Google网站管理员工具。但是每次我重新提交站点地图时,它总是说:Sitemapcontainsurlswhichareblockedbyrobots.txt.似乎站点地图中的所有URL都被阻止了。示例:http://janwawa.com/enhttp://janwawa.com/en/http://janwawa.com/en/album这是我的机器人文件User-agent:*Disallow:/admin/Disallow:/cgi-bin/Disallow:

seo - 如何自定义 DNN robots.txt 以允许搜索引擎抓取模块特定站点地图?

我在DNN网站上为博客、新闻文章等使用EasyDNN新闻模块。核心DNN站点地图不包含此模块生成的文章,但模块会创建自己的站点地图。例如:domain.com/blog/mid/1005/ctl/sitemap当我尝试将此站点地图提交给Google时,它​​说我的Robots.txt文件阻止了它。查看DNN附带的Robots.txt文件,我注意到Slurp和Googlebot用户代理下的以下几行:Disallow:/*/ctl/#Slurppermits*Disallow:/*/ctl/#Googlebotpermits*我想提交模块的站点地图,但我想知道为什么这些用户代理不允许/ct

seo - Robots.txt 不允许子目录但允许其中的文件夹

我希望禁止我的根文件夹中的子目录,但允许其中的文件夹。我有什么:User-Agent:*Disallow:/admin我想允许/admin/images这可能吗? 最佳答案 试试这个。在robots.txt测试器中试一试,以避免任何负面影响。Allow:/admin/images/Disallow:/admin/ 关于seo-Robots.txt不允许子目录但允许其中的文件夹,我们在StackOverflow上找到一个类似的问题: https://stacko

wordpress - robots.txt 更改后,谷歌需要多长时间才能将我的网站编入索引?

我正在这个网站上工作:www.pjarchitects.com。这是一个Wordpress版本。当网站最初上线时,我选中了“阻止搜索引擎索引该网站”框。它现在未选中,我希望我的网站被谷歌抓取并编入索引,但在搜索谷歌时我仍然收到此消息“由于该网站的robots.txt,此结果的描述不可用-了解更多。”我的网站通过了网站站长工具中的robots.txt测试程序。是否有一定的时间我需要等待(已经一天了)还是有其他原因导致了这个问题? 最佳答案 他们重新抓取robots.txt大约需要24小时,但实际SERP(搜索引擎结果页面)中的文本更新