草庐IT

process_txt

全部标签

seo - 如何在负载平衡环境中动态编辑 robots.txt?

看来我们很快就要开始对我们的网络服务器进行负载平衡了。我们有一个动态编辑robots.txt的功能请求,这对一台主机来说不是问题——但是一旦我们启动并运行负载均衡器——听起来我必须将文件scp到另一台主机主持人。这听起来非常“糟糕”。你会如何处理这种情况?我已经让客户编辑元标记“robots”,(imo)应该有效地执行他希望从robots.txt编辑中完成的相同操作,但我真的不太了解SEO。也许有一种完全不同的处理方式?更新看起来我们暂时将其存储在s3中并在前端进行内存缓存...我们现在是怎么做的所以我们正在使用merb..我像这样映射到我们的robots.txt的路由:match('

google-app-engine - 谷歌 Gae : Unreachable robots. txt

我已经在我的urlhttp://watchmariyaanmovieonline.appspot.com/robots.txt中上传了robots.txt,但是当我使用googlewebmaster并为我的主页做Fetchasgoogle时http://watchmariyaanmovieonline.appspot.com/我收到错误消息Unreachablerobots.txt 最佳答案 您的robots.txt内容有一个空的Disallow,因此您会收到该错误。User-agent:*Disallow:Disallow:/cg

seo - 如何告诉搜索引擎使用我更新的 robots.txt 文件?

之前,我阻止了搜索引擎机器人以防止使用robots.txt文件抓取我的网站,但现在我想取消阻止它们。我更新了robots.txt文件并允许搜索引擎机器人抓取我的网站,但搜索引擎似乎仍在使用我的旧robots.txt文件,如何告诉搜索引擎使用我的新robots.txt文件?还是我的robots.txt文件有问题?我的旧robots.txt文件的内容:User-agent:*Disallow:/我的新robots.txt文件的内容:User-agent:*Allow:/#Disallowthesedirectories,urltypes&file-typesDisallow:/trackb

seo - 机器人.txt : how to disallow subfolders of dynamic folder

我有这样的网址:/产品/:product_id/交易/新/products/:product_id/deals/index我想在我的robots.txt文件中禁用“交易”文件夹。[编辑]我想禁止Google、Yahoo和BingBots使用此文件夹。有谁知道这些机器人是否支持通配符并支持以下规则?Disallow:/products/*/deals还有...关于robots.txt规则,您有什么真正好的教程吗?因为我没能找到一个“真正”好的,所以我可以使用一个......最后一个问题:robots.txt是处理此问题的最佳方法吗?或者我应该更好地使用“noindex”元数据?谢谢大家!

seo - 如何创建 google xml 站点地图和 robot.txt 文件?

关闭。这个问题不符合StackOverflowguidelines.它目前不接受答案。要求我们推荐或查找工具、库或最喜欢的场外资源的问题对于StackOverflow来说是偏离主题的,因为它们往往会吸引自以为是的答案和垃圾邮件。相反,describetheproblem以及迄今为止为解决该问题所做的工作。关闭8年前。Improvethisquestion嗨,我是seo的初学者,谁能告诉我如何为我的网站创建xml站点地图和robots.txt文件。有没有适合他们的发电机?谢谢你的帮助问候朱迪

.htaccess - 首先调用什么 - htaccess 中的 robots.txt 或 mod_rewrite

我需要一些帮助。我不确定mod_rewrite和robots.txt请求的顺序。一些url属于重写规则:/index.php?id=123to/home其他网址没有重写:/index.php?id=444我在我的robots.txt中做了这个条目:User-agent:*Disallow:/index.php?id带有/home的网站会被搜索引擎收录吗? 最佳答案 robots.txt文件由客户端(蜘蛛)解释,他们不知道你的系统有什么重写。因此,如果蜘蛛程序看起来像robots.txt中的模式,它们就不会从您的站点获取URL,但如果

asp.net - 为 ASP.NET MVC 站点创建 robots.txt

我正在为我的网站创建一个robots.txt文件,但查看我的项目结构后,我不确定要禁止什么。我是否需要禁止标准.NETMVC目录和文件,例如/App_Data、/web.config、/Controllers、/Models、/Global.asax?或者那些还没有被编入索引?像/bin和/obj这样的目录呢?如果我想禁止某个页面,我是禁止/Views/MyPage/Index.cshtml还是/MyPage?此外,在robots.txt文件中指定站点地图时,我可以使用我的Web.sitemap吗,还是需要使用不同的xml文件? 最佳答案

seo - robots.txt 错误 : Content Type should be text/plain

我正在使用名为SearchEngineOptimization(SEO)Toolkit1.0的软件测试我的网站,它显示此错误:Thecontenttypefortheresponsefrom"htpp://mysite.com/robots.txt"is"text/html".TheWebservershouldreturn"text/plain"asthecontenttypeforaRobots.txtfile.我的robots.txt文件就是这样的:User-agent:*Allow:/使用不带BOM编码的UTF-8保存。这是错的吗?默认的、无害的robots.txt文件应该是什

seo - 如何在 robots.txt 中禁止服务 api 和多语言 url

我需要禁止下一个URL:serviceapi/_s/user,/_s/place,...都以/_s/开头保存表格:/{language}/save。例如/{en}/save,/{ru}/save,...注意:大多数URL开头都有语言参数:/en/event,……我不想屏蔽它们。应该是这样的:(但是robots.txt格式不允许这样做)Disallow:/_s/*Disallow:/:lang/save 最佳答案 在robots.txt中,匹配是从左边开始的,因此它匹配任何以/pattern开头的内容。像/*pattern这样的通配符

meteor - 部署特定的 robots.txt 与 meteor ?

我想在我的Meteor应用程序(位于*.meteor.com)的暂存部署中包含一个public/robots.txt文件,基本上是为了完全避免抓取该版本的网站。我怎样才能做到这一点?我正在使用meteordeploy命令部署到暂存区。 最佳答案 我想出了一个(希望是临时的?)解决方案,在调用meteordeploy之前使用创建public/robots.txt的部署脚本,最后删除public/robots.txt。脚本:#!/usr/bin/envpythonimportsubprocessimportos.pathdpath=os