草庐IT

tmp_result

全部标签

hadoop - 由于 tmp 文件夹权限,Snappy 压缩无法正常工作

每当我尝试使用pig、Sqoop或Spark以压缩格式存储数据时,我都会遇到问题。我知道问题出在将我们的tmp文件夹安装到nonexec上,这导致例如snappy给我这个错误:java.lang.IllegalArgumentException:java.lang.UnsatisfiedLinkError:/tmp/snappy-1.1.2-fe4e30d0-e4a5-4b1a-ae31-fd1861117288-libsnappyjava.so:/tmp/snappy-1.1.2-fe4e30d0-e4a5-4b1a-ae31-fd1861117288-libsnappyjava.s

hadoop - java.io.IOException :java. lang.ClassCastException : org. apache.hadoop.hbase.client.Result 无法转换为 org.apache.hadoop.io.Writable

尝试了一个从hive处理hbase中的表的示例。CREATEEXTERNALTABLE命令成功,但是select语句给出类转换异常环境:hive0.12.0,hbase0.96.1,hadoop2.2,Virtualbox上的Ubuntu12.04hive>SHOWTABLES;OKhbatablese_myhiveTimetaken:0.309seconds,Fetched:1row(s)hive>SELECT*FROMhbatablese_myhive;OK**异常失败java.io.IOException:java.lang.ClassCastException:org.apac

hadoop - 清除目录/tmp/sqoop-hadoop/compile/

我想删除sqoop编译目录中的许多旧目录(例如:/tmp/sqoop-hadoop/compile/cebe706d23ebb1fd99c1f063ad51ebd7)以清理空间。sqoop是否只在编译目录/tmp/sqoop-hadoop/compile/中存放临时文件?删除早于特定日期的所有目录会导致任何问题吗? 最佳答案 Doessqoopstoresonlytemporaryfilesinthecompiledirectory/tmp/sqoop-hadoop/compile/?它会根据为每个sqoop命令生成的java代码创

linux - 由于 nutch linux 实例的 tmp 目录中的作业缓存,磁盘空间被填满

我是新手。我们已经设置了solr环境,我们发现我们正面临一个问题。磁盘空间已被100%使用。当我们调试它时,我们看到以下位置的作业缓存正在使用更多空间(大约70%)。“/tmp/hadoop-root/mapred/local/taskTracker/root/jobcache/”。我搜索了很多论坛以了解这个jobcache文件夹到底包含什么。任何人都可以帮助我了解此jobcache文件夹包含什么以及如何限制此tmp文件夹不使用空间。如果我删除jobcache文件夹并使用mkdir命令重新创建它会有什么影响?提前致谢。 最佳答案 您

hadoop - 配置 flume 在将数据下沉到 hdfs 时不生成 .tmp 文件

我正在使用flume将数据从服务器日志流式传输到hdfs。但是当数据流式传输到hdfs时,它首先创建.tmp文件。在配置中是否有一种方法可以隐藏.tmp文件,或者可以通过附加.tmp文件来更改名称。在前。我的收集代理文件看起来像-##TARGETAGENT####configurationfilelocation:/etc/flume/conf##STARTAgent:flume-ngagent-cconf-f/etc/flume/conf/flume-trg-agent.conf-ncollector#http://flume.apache.org/FlumeUserGuide.ht

hadoop - hadoop.tmp.dir 到底应该设置在哪里? core-site.xml 还是 hdfs-site.xml?

我问的是Hadoop2.x系列。互联网上对此有相互矛盾的建议。喜欢这个case他要求在core-site.xml和这个SOanswer中指定它其中提到hadoop.tmp.dir设置在hdfs-site.xml中。应该放在哪个位置? 最佳答案 hadoop.tmp.dir(Abaseforothertemporarydirectories)属性,需要在core-site.xml中设置,就像exportinLinux例如:dfs.namenode.name.dirfile://${hadoop.tmp.dir}/dfs/name您可以

java - Result 类型的方法 raw() 已弃用

在我们最新的CDH集群升级中,我们遇到了许多已弃用的方法和类。一个这样的例子是我用来从我们的Hbase表记录中获取epochTimestamp的方法raw(),如下所示:StringepochTimestamp=String.valueOf(values.raw()[0].getTimestamp());我的PM要求我删除所有此类已弃用的功能,并将其替换为最新功能。来自https://hbase.apache.org/apidocs/org/apache/hadoop/hbase/client/Result.html我发现listCells相当于raw(),但是谁能帮助我了解如何使用l

java - Apache Spark : TaskResultLost (result lost from block manager) Error On cluster

我在Virtualbox上有一个带有3个从节点的Spark独立集群。我的代码在Java上,它可以很好地处理我的小输入数据集,它们的输入总共大约100MB。我将我的虚拟机RAM设置为16GB,但是当我在大输入文件(大约2GB)上运行我的代码时,在我的reduce部分处理数小时后出现此错误:Jobabortedduetostagefailure:Totalsizeofserializedresultsof4tasks(4.3GB)isbiggerthanspark.driver.maxResultSize`我编辑了spark-defaults.conf并为spark.driver.maxR

hadoop - 无法设置路径 :\tmp 的权限

Failedtosetpermissionsofpath:\tmp\hadoop-MayPayne\mapred\staging\MayPayne2016979439\.stagingto0700我在执行MapReduce作业时收到此错误,我使用的是hadoop1.0.4,然后我知道这是一个已知问题,我在1.2.0上尝试过此问题,但问题仍然存在。我能知道他们已经解决了这个问题的hadoop版本吗?先谢谢大家 最佳答案 我在Windows7上运行nutch-1.7时遇到了同样的异常。bin/nutchcrawlurls-dircraw

hadoop - hadoop hdfs中的/tmp目录是什么?

我有4个数据节点的集群,每个节点上的hdfs结构如下我面临磁盘空间问题,您可以看到来自hdfs的/tmp文件夹占用了更多空间(217GB)。所以我试图调查/tmp文件夹中的数据。我发现了以下临时文件。我访问了这些临时文件夹,每个文件夹都包含一些大小为10gb到20gb的部分文件。我想清除这个/tmp目录。谁能告诉我删除这些tmp文件夹或零件文件的后果。它会影响我的集群吗? 最佳答案 HDFS/tmp目录主要用作mapreduce操作时的临时存储。Mapreduce工件、中间数据等将保存在此目录下。当mapreduce作业执行完成时,