草庐IT

markers_tmp

全部标签

java.io.IOException : File/tmp/hadoop-eo/mapred/system/jobtracker. 信息只能复制到 0 个节点,而不是 2 个

当我在我们的主机上部署hadoopnamenode时,我们一次又一次地遇到异常,任何人都可以帮助提供任何建议吗?提前致谢。2014-08-0509:08:00,538INFOorg.apache.hadoop.hdfs.server.namenode.FSNamesystem:Numberoftransactions:31Totaltimefortransactions(ms):1NumberoftransactionsbatchedinSyncs:0Numberofsyncs:21SyncTimes(ms):172014-08-0509:08:00,542INFOorg.apache

hadoop - 由于 tmp 文件夹权限,Snappy 压缩无法正常工作

每当我尝试使用pig、Sqoop或Spark以压缩格式存储数据时,我都会遇到问题。我知道问题出在将我们的tmp文件夹安装到nonexec上,这导致例如snappy给我这个错误:java.lang.IllegalArgumentException:java.lang.UnsatisfiedLinkError:/tmp/snappy-1.1.2-fe4e30d0-e4a5-4b1a-ae31-fd1861117288-libsnappyjava.so:/tmp/snappy-1.1.2-fe4e30d0-e4a5-4b1a-ae31-fd1861117288-libsnappyjava.s

hadoop - 清除目录/tmp/sqoop-hadoop/compile/

我想删除sqoop编译目录中的许多旧目录(例如:/tmp/sqoop-hadoop/compile/cebe706d23ebb1fd99c1f063ad51ebd7)以清理空间。sqoop是否只在编译目录/tmp/sqoop-hadoop/compile/中存放临时文件?删除早于特定日期的所有目录会导致任何问题吗? 最佳答案 Doessqoopstoresonlytemporaryfilesinthecompiledirectory/tmp/sqoop-hadoop/compile/?它会根据为每个sqoop命令生成的java代码创

linux - 由于 nutch linux 实例的 tmp 目录中的作业缓存,磁盘空间被填满

我是新手。我们已经设置了solr环境,我们发现我们正面临一个问题。磁盘空间已被100%使用。当我们调试它时,我们看到以下位置的作业缓存正在使用更多空间(大约70%)。“/tmp/hadoop-root/mapred/local/taskTracker/root/jobcache/”。我搜索了很多论坛以了解这个jobcache文件夹到底包含什么。任何人都可以帮助我了解此jobcache文件夹包含什么以及如何限制此tmp文件夹不使用空间。如果我删除jobcache文件夹并使用mkdir命令重新创建它会有什么影响?提前致谢。 最佳答案 您

hadoop - 配置 flume 在将数据下沉到 hdfs 时不生成 .tmp 文件

我正在使用flume将数据从服务器日志流式传输到hdfs。但是当数据流式传输到hdfs时,它首先创建.tmp文件。在配置中是否有一种方法可以隐藏.tmp文件,或者可以通过附加.tmp文件来更改名称。在前。我的收集代理文件看起来像-##TARGETAGENT####configurationfilelocation:/etc/flume/conf##STARTAgent:flume-ngagent-cconf-f/etc/flume/conf/flume-trg-agent.conf-ncollector#http://flume.apache.org/FlumeUserGuide.ht

hadoop - hadoop.tmp.dir 到底应该设置在哪里? core-site.xml 还是 hdfs-site.xml?

我问的是Hadoop2.x系列。互联网上对此有相互矛盾的建议。喜欢这个case他要求在core-site.xml和这个SOanswer中指定它其中提到hadoop.tmp.dir设置在hdfs-site.xml中。应该放在哪个位置? 最佳答案 hadoop.tmp.dir(Abaseforothertemporarydirectories)属性,需要在core-site.xml中设置,就像exportinLinux例如:dfs.namenode.name.dirfile://${hadoop.tmp.dir}/dfs/name您可以

hadoop - 无法设置路径 :\tmp 的权限

Failedtosetpermissionsofpath:\tmp\hadoop-MayPayne\mapred\staging\MayPayne2016979439\.stagingto0700我在执行MapReduce作业时收到此错误,我使用的是hadoop1.0.4,然后我知道这是一个已知问题,我在1.2.0上尝试过此问题,但问题仍然存在。我能知道他们已经解决了这个问题的hadoop版本吗?先谢谢大家 最佳答案 我在Windows7上运行nutch-1.7时遇到了同样的异常。bin/nutchcrawlurls-dircraw

hadoop - hadoop hdfs中的/tmp目录是什么?

我有4个数据节点的集群,每个节点上的hdfs结构如下我面临磁盘空间问题,您可以看到来自hdfs的/tmp文件夹占用了更多空间(217GB)。所以我试图调查/tmp文件夹中的数据。我发现了以下临时文件。我访问了这些临时文件夹,每个文件夹都包含一些大小为10gb到20gb的部分文件。我想清除这个/tmp目录。谁能告诉我删除这些tmp文件夹或零件文件的后果。它会影响我的集群吗? 最佳答案 HDFS/tmp目录主要用作mapreduce操作时的临时存储。Mapreduce工件、中间数据等将保存在此目录下。当mapreduce作业执行完成时,

hadoop - Spark - java IOException :Failed to create local dir in/tmp/blockmgr*

我试图运行一个长时间运行的Spark作业。执行几个小时后,出现以下异常:Causedby:java.io.IOException:Failedtocreatelocaldirin/tmp/blockmgr-bb765fd4-361f-4ee4-a6ef-adc547d8d838/28试图通过检查来绕过它:/tmp目录中的权限问题。spark服务器未以root身份运行。但是/tmp目录应该对所有用户都是可写的。/tmp目录有足够的空间。 最佳答案 假设您正在使用多个节点,您需要检查参与spark操作的每个节点(master/drive

php - 为什么不能将信息写入/tmp 目录而不是/var/www/html?

LAMP安装在我的本地电脑上,据我所知,字符串xxxx可以用下面的PHP函数写入/tmp/test。file_put_contents("/tmp/test","test1test2")catajax_get.php为什么ajax_get.php中的命令file_put_contents("/tmp/test",$str);不起作用?用替换file_put_contents是没有用的$handle=fopen("/tmp/test","w");fwrite($handle,$str);fclose($handle);如果我在ajax_get.php中更改以下语句,可能是目录权限问题fi