草庐IT

hadoop - 复制文件 : Could only be replicated to 0 nodes, 而不是 1 时出现 HDFS 错误

将文件从本地系统复制到HDFS时出现以下错误,我正在使用单节点13/08/0410:50:02警告hdfs.DFSClient:DataStreamer异常:java.io.IOException:文件/user/vishu/input只能复制到0个节点,而不是1我删除了dfs/Name和dfs/data目录,格式化了Namenode还是没有用。并且我有足够的空间来复制数据。谁能帮忙解决这个问题?问候,维斯瓦 最佳答案 有时数据节点可能启动缓慢,这可能会导致上述问题。在dfs和mapred恶魔启动后保持一些等待时间。bin/hado

Hadoop DataStreamer 异常 : File could only be replicated to 0 nodes instead of minReplication (=1)

我尝试从我的本地加载json数据到hadoophdfs,我使用这些命令,它抛出异常:hadoopfs-copyFromLocalpath/files/file.jsoninput/hadoopfs-putpath/files/file.jsoninput/我使用jps命令检查,发现hadoop正在运行。26039ResourceManager30858SecondaryNameNode35605Jps26147NodeManager30714DataNode这是异常的详细信息:WARNhdfs.DFSClient:DataStreamerExceptionorg.apache.hado

hadoop - Apache Spark Ec2 : could only be replicated to 0 nodes, 而不是 1

我有一个在Ec2d2.xlarge实例上运行的2Node集群,我有一个10Gb的文件要通过Spark处理,我在spark上安装了一个本地磁盘并在那里生成了10gb的数据集,但是当我我试图将其放入Hdfs中,它向我抛出错误"couldonlybereplicatedto0nodes,insteadof1"如下16/03/0921:44:25WARNhdfs.DFSClient:DataStreamerException:org.apache.hadoop.ipc.RemoteException:java.io.IOException:File/vinit/inputfile.txtcou

hadoop - PIG 存储函数 : storing only certain fields is possible?

我有一个用例,我只需要将某些字段存储到HDFS。我知道我可以做一些foreach等等来保留感兴趣的领域,但我想知道这在Store函数中是否可行。 最佳答案 这可以使用您自定义的Store函数:http://ofps.oreilly.com/titles/9781449302641/load_and_store_funcs.html但一般来说,使用GENERATE并将所需字段存储在一些其他元组中要容易得多,这些元组将仅在STORE函数中使用 关于hadoop-PIG存储函数:storing

hadoop - Map only 任务中会出现 Shuffle 和 sort 吗?

shuffle和sort阶段是在map任务结束之前进行,还是在map任务生成输出之后进行,以便不再回头查看map任务。这是一个让我感到困惑的“仅限maptask”案例。如果在Maponly任务中没有Shuffle和sort,谁能解释一下数据是如何写入最终输出文件的。 最佳答案 当你有一个map-only任务时,根本没有混洗,这意味着映射器会将最终输出直接写入HDFS。另一方面,当你有一个完整的Map-Reduce程序时,带有映射器和缩减器,是的,洗牌可以在缩减阶段开始之前开始。引用thisveryniceanswer所以:First

java.io.IOException : ensureRemaining: Only 0 bytes remaining, 试图读取 1

我在使用giraph中的自定义类时遇到了一些问题。我制作了VertexInput和Output格式,但我总是收到以下错误:java.io.IOException:ensureRemaining:Only*bytesremaining,tryingtoread*在“*”所在的位置具有不同的值。这是在单节点集群上测试的。当vertexIterator执行next()并且没有更多的顶点时,会发生此问题。这个迭代器是从flush方法调用的,但我基本上不明白为什么“next()”方法失败。这里有一些日志和类...我的日志如下:15/09/0800:52:21INFObsp.BspService:

hadoop - HBase Map-only 行删除

第一次编写HBasemapreduce,我在删除HBase中的行时遇到了问题(尝试将其作为仅映射作业运行)。该作业成功并且能够扫描HBase表,并且我能够在从HBase读取的映射器中获取正确的行键(通过sysout验证)。但是,似乎对Deletedel=newDelete(row.get())的调用实际上并没有做任何事情。下面是我要运行的代码:HBaseDelete.javapublicclassHBaseDelete{publicstaticvoidmain(String[]args)throwsException{Configurationconfig=HBaseConfigura

hadoop - 我的 sparkDF.persist(DISK_ONLY) 数据存储在哪里?

想进一步了解hadoopoutofspark的持久化策略。当我使用DISK_ONLY策略持久化数据帧时,我的数据存储在哪里(路径/文件夹...)?我在哪里指定这个位置? 最佳答案 对于简短的回答,我们可以看看关于spark.local.dir的thedocumentation:Directorytousefor"scratch"spaceinSpark,includingmapoutputfilesandRDDsthatgetstoredondisk.Thisshouldbeonafast,localdiskinyoursystem

hadoop - Spark : saveAsTextFile() only creating SUCCESS file and no part file when writing to local filesystem

我正在使用以下命令将RDD写入文件:rdd.coalesce(1).saveAsTextFile(FilePath)当FilePath是HDFS路径(hdfs://node:9000/folder/)时一切正常。当FilePath是本地路径(file:///home/user/folder/)时,一切似乎都正常。输出文件夹已创建,SUCCESS文件也已存在。但是我没有看到任何包含输出的part-00000文件。没有其他文件。spark控制台输出也没有错误。我还尝试在调用saveAsTextFile()之前调用RDD上的collect,为输出文件夹提供777权限,但没有任何效果。请帮忙。

hadoop - 如何在hadoop中解析 'file could only be replicated to 0 nodes, instead of 1'?

我有一个简单的hadoop作业,可以抓取网站并将它们缓存到HDFS。映射器检查HDFS中是否已存在URL,如果存在,则使用它,否则下载页面并将其保存到HDFS。如果在下载页面时遇到网络错误(404等),则URL将被完全跳过-不会写入HDFS。每当我运行一个小列表~1000个网站时,我似乎总是遇到这个错误,它在我的伪分布式安装中反复使作业崩溃。可能是什么问题?我正在运行Hadoop0.20.2-cdh3u3。org.apache.hadoop.ipc.RemoteException:java.io.IOException:File/user/raj/cache/9b4edc6adab6f