草庐IT

process_txt

全部标签

wordpress - robots.txt 更改后,谷歌需要多长时间才能将我的网站编入索引?

我正在这个网站上工作:www.pjarchitects.com。这是一个Wordpress版本。当网站最初上线时,我选中了“阻止搜索引擎索引该网站”框。它现在未选中,我希望我的网站被谷歌抓取并编入索引,但在搜索谷歌时我仍然收到此消息“由于该网站的robots.txt,此结果的描述不可用-了解更多。”我的网站通过了网站站长工具中的robots.txt测试程序。是否有一定的时间我需要等待(已经一天了)还是有其他原因导致了这个问题? 最佳答案 他们重新抓取robots.txt大约需要24小时,但实际SERP(搜索引擎结果页面)中的文本更新

php - 将 robots.txt 重定向到 php 页面

我有一个系统可以在一个文件结构下处理多个域,每个域都需要不同的站点地图和robots.txt。对于站点地图,我设置了一个重定向,我知道它运行良好。我想确认robots.txt也可以吗?我在.htaccess中添加了一个重写规则,将用户重定向到一个php页面。在这个php页面上,我找到了域用户拥有的内容,并使用文本标题打印出正确的信息。这是允许的吗?额外信息:我有一个由domainA和domainB使用的codeigniter应用程序。domainA应该看到domainA的机器人,domainB应该看到domainB的机器人。如果我要在网站的根目录中创建robots.txt,domain

magento - Robots.txt 禁止特定页面不起作用

我安装了Magento,我想从Google抓取中排除privacy-policy-cookie-restriction-mode页面。在我的robots.txt中,我设置了以下代码:Disallow:/enable-cookies/Disallow:/customer-service/Disallow:/privacy-policy-cookie-restriction-mode/当我使用SemRush分析我的网站时,我得到了此页面的重复内容,并且禁止指令似乎不起作用。有什么建议吗? 最佳答案 看看这个Google帮助页面:http

seo - Robots.txt 特定排除

目前我的robots.txt如下#SitemapsSitemap:http://www.baopals.com.com/sitemap.xml#DisallowselectURLsUser-agent:*Disallow:/admin/Disallow:/products/我的产品有很多重复的内容,因为我从taobao.com提取数据并自动翻译它,导致大量重复和低质量的名称,这就是为什么我只是禁止整个事情。但是我手动更改某些产品的标题并将它们重新保存到数据库并在主页上展示它们并进行适当的翻译它们仍然会保存回/products/并在我删除时永远丢失他们来自主页。我想知道是否可以让我保存到

seo - X-Robots-Tag HTTP header 与 robots.txt 的优先级

例如,如果这是在Apache设置中设置的:HeadersetX-Robots-Tag"noindex,nofollow"这是在robots.txt文件中设置的:User-agent:*Allow:/哪个优先? 最佳答案 这些是不同的说明,因此您的查询无效。这里robots.txt文件允许抓取,x-robots-tag控制索引。虽然如果您展示了具有相同指令但格式不同的内容,那么(至少对于googlebot)会注意到限制性最强的内容。 关于seo-X-Robots-TagHTTPheader

laravel - 域名别名、sitemaps.xml 和 robots.txt

我正在寻找添加引用站点地图的多个域名别名,这是从Laravel框架中分离出来的逻辑。在我的robots.txt文件中-但我不太确定正确的方法是什么。站点地图存在并且存在且正确,但不确定谷歌期望的格式......所以真正寻找基于SEO的答案而不是实现这一点。我想我可以为robots.txt即,Sitemap:https://www.main-domain.com/sitemap.xmlSitemap:https://www.domain-alias1.com/sitemap.xmlSitemap:https://www.domain-alias2.com/sitemap.xml任何pro

php - 在超薄框架应用程序中使用 robots.txt 和站点地图?

我正在使用Slim创建一个网站并想做一些SEO。问题是Slim更像是一个基于API的框架,通常不提供文件服务并使用端点。我如何为搜索引擎编制索引的robots.txt文件和其他sitemap.xml文件提供服务?我应该创建单独的端点还是使用.htaccess。如果是这样,我该怎么做? 最佳答案 我看到了两种方式(不知道Slim的细节)为每个输出的HTML资源添加依赖的机器人元元素或者...添加一条路由,匹配所有请求的robots.txt并输出依赖内容动态 关于php-在超薄框架应用程序中

seo - 使用 sitemap.txt 创建站点地图索引文件

使用XML站点地图,我们可以创建一个sitemap.xml文件:https://www.example.com/0.xmlhttps://www.example.com/1.xml但是我们如何使用sitemap.txt文件实现同样的效果呢?我们是否将其包含在robots.txt中? 最佳答案 站点地图协议(protocol)不支持文本格式的站点地图索引文件。您必须提供多个站点地图文件(OtherSitemapformats→文本文件):Eachtextfilecancontainamaximumof50,000URLsandmust

directory - 不允许目录内容,但允许 robots.txt 中的目录页面

这是否适用于不允许目录下的页面,但仍允许该目录url上的页面?Allow:/special-offers/$Disallow:/special-offers/允许:www.mysite.com/special-offers/但阻止:www.mysite.com/special-offers/page1www.mysite.com/special-offers/page2.html等等 最佳答案 查看了Google自己的robots.txtfile,他们所做的正是我所质疑的。在第136-137行,他们有:Disallow:/place

javascript - Robots.txt 拒绝 #!网址

我正在尝试向robots.txt文件添加拒绝规则,以拒绝访问单个页面。网站URL的工作方式如下:http://example.com/#!/homepagehttp://example.com/#!/about-ushttp://example.com/#!/super-secret然后Javascript根据URL换出显示的DIV。我如何请求搜索引擎蜘蛛不列出以下内容:http://example.com/#!/super-secrethttp://example.com/index.php#!/super-secret提前致谢 最佳答案