草庐IT

apache - Hbase ipc.RpcServer responseTooSlow 问题和区域服务器关闭

我已经使用Hadoop2.7.4配置了Hbase1.2.6。我已经在上面配置了Nutch。以下是两个Hbase站点属性hbase.rpc.timeout1200000Changedto20minuteshbase.client.scanner.timeout.period1200000Changedto10minutes当我开始工作时。警告开始一段时间后,区域服务器关闭。这就是为什么Job也失败了。2017-12-2217:39:25,660WARN[B.defaultRpcServer.handler=18,queue=0,port=16020]ipc.RpcServer:(resp

hadoop - 如何使用 apache Nutch 2.3 每天从网络上抓取 100 万个文档

我已经用hadoop1.2.1和hbase0.94.x配置了apachenutch2.3。我必须爬网几个星期。大约需要爬取100万个文档。我有四个节点的hadoop集群。在此配置之前,我在单机上设置了nutch并爬取了一些文档。但是抓取速度不超过50k到80k。nutch应该如何配置才能每天抓取所需数量的文档。 最佳答案 一般来说,你可以设置更大的TopN,也可以改变http.content.limit在nutch-site.xml中设置为-1。希望对您有所帮助,乐国岛 关于hadoop

hadoop - Apache Nutch 在限制后刷新 gora 记录

我已经为Nutch2.3.1配置了Hadoop/Hbase生态系统。我没有更改gora.buffer.read.limit和gora.buffer.read.limit,即在这两种情况下都使用它们的默认值10000。在生成阶段,我将topN设置为100,000。在生成作业期间,我得到以下信息org.apache.gora.mapreduce.GoraRecordWriter:Flushingthedatastoreafter60000records工作完成后,我发现有100,000个url被标记为已提取,我想成为。但我很困惑上面的警告显示了什么?gora.buffer.read.lim

hadoop - cassandra 上的 Nutch 2.3.1 无法启动

我正在尝试使用cassandra运行nutch2.3.1。按照http://wiki.apache.org/nutch/Nutch2Cassandra上的步骤操作.最后,当我尝试使用命令启动nutch时:bin/crawlurls/testhttp://localhost:8983/solr/2我得到以下异常:GeneratorJob:startingGeneratorJob:filtering:falseGeneratorJob:normalizing:falseGeneratorJob:topN:50000GeneratorJob:java.lang.RuntimeExceptio

java - 将 Apache Nutch 2.3 与 Hbase 0.94.14 和 Solr 5.2.1 集成时出错

我正在将Nutch与Hbase和Solr集成。启动Hadoop和Hbase服务后,我在NutchHome中运行如下命令sudo-Ebin/crawlurls/seed.txtTestCrawlhttp://localhost:8983/solr/2我遇到了这些错误:InjectingseedURLs/usr/local/apache-nutch-2.3.1/runtime/local/bin/nutchinjecturls/seed.txt-crawlIdTestCrawlInjectorJob:startingat2016-05-2615:41:14InjectorJob:Injec

hadoop - HBase伪分布式还是全分布式?

我在开发环境中有一个linux(ubuntu)服务器,我也计划在生产环境中使用一个服务器。我有从Nutch2.2.1生成的爬网数据,我想将其存储在HBase0.90.6中。因为,我不打算使用多台机器,(我只有一台服务器)在我的情况下,哪种HBase模式最适合生产环境-伪还是完全分布式? 最佳答案 伪分布式模式会更好,因为在独立模式下使用本地FS。这意味着您无法利用HDFS+MR组合提供的并行性。 关于hadoop-HBase伪分布式还是全分布式?,我们在StackOverflow上找到一

hadoop - Hadoop 2.x 中的 Nutch

我有一个运行Hadoop2.2.0和HBase0.98.1的三节点集群,我需要在其上使用Nutch2.2.1爬虫。但它只支持1.x分支的Hadoop版本。到现在为止,我可以向我的集群提交Nutch作业,但它因java.lang.NumberFormatException而失败。所以我的问题很简单:如何让Nutch在我的环境中工作? 最佳答案 目前无法将Nutch2.2.1(Gora0.3)与HBase0.98.x集成。请参阅:https://issues.apache.org/jira/browse/GORA-304Nutch官方教

hadoop - 为什么我得到 "security.Groups: Group mapping impl=org.apache.hadoop.security.ShellBasedUnixGroupsMapping; cacheTimeout=300000"?

$hdfsdfs-rmrcrawl11/04/1608:49:33INFOsecurity.Groups:Groupmappingimpl=org.apache.hadoop.security.ShellBasedUnixGroupsMapping;cacheTimeout=300000我正在使用hadoop-0.21.0和defaultSingleNodeSetupconfiguration. 最佳答案 这不是警告,只是标准消息。但是,它不应该在INFO级别输出,因为它确实会随每条消息一起打印。在主干中,它已移至DEBUG,因此您

java - 方法 cancel() 和方法 interrupt() 是否做重复工作?

我阅读了org.apache.nutch.parse.ParseUtil.runParser(Parserp,Contentcontent)的源代码。这两个方法调用是否做同样的事情:说明1:t.interrupt();说明2:task.cancel(true);org.apache.nutch.parse.ParseUtil.runParser(Parserp,Contentcontent)的来源是:ParseCallablepc=newParseCallable(p,content);FutureTasktask=newFutureTask(pc);ParseResultres=nu

hadoop - 使用 Fair Scheduler 时,如何确保某些 hadoop 作业最终不会在同一个数据节点中运行?

当使用nutch爬虫时,抓取作业的创建使得来自同一主机的URL最终出现在单个数据节点中以保持抓取礼貌(1QPS)。但是,某些主机允许超过1QPS,因此URL会相应地进行分区。对于此类主机,URL将位于两个意味着在两个不同数据节点上运行的获取作业中。但有时公平调度程序会将这些作业(reducetask)调度到同一个数据节点。那么有什么办法可以解决这个问题吗?非常感谢任何帮助。谢谢 最佳答案 我不确定你是否想做这样的事情,因为它会影响你的Hadoop集群的其余部分......您可以将每个节点的reduce插槽数设置为1。您要为此更改的配