草庐IT

IFA_LOCAL

全部标签

hadoop - 如何选择${mapred.local.dir}?

如果我配置了几个${mapred.local.dir}目录来存储MapTask的即时结果,这些目录挂载在不同的磁盘上。我的问题是:1.LocalDirAllocator.java是否用于管理${mapred.local.dir}目录?2.LocalDirAllocator.java的方法getLocalPathForWrite()是用来选择一个${mapred.local.dir}目录的? 最佳答案 1.WhetherLocalDirAllocator.javaisusedtomanage${mapred.local.dir}dir

hadoop - MrJob 花费大量时间 Copy local files into hdfs

我遇到的问题是:已经将我的input.txt(50MBytes)文件放入HDFS,我正在运行python./test.pyhdfs:///user/myself/input.txt-rhadoop--hadoop-bin/usr/bin/hadoopMrJob似乎花了很多时间将文件复制到hdfs(又是?)Copyinglocalfilesintohdfs:///user/myself/tmp/mrjob/test.myself.20150927.104821.148929/files/这符合逻辑吗?它不应该直接从HDFS使用input.txt吗?(使用Hadoop版本2.6.0)

hadoop - 批处理模式中的 livy 抛出错误 Error : Only local python files are supported: Parsed arguments

我尝试通过提交python文件以批处理模式执行livy但它不起作用,我尝试了两种方法-从本地文件系统运行py文件,同时通过将它复制到那里在hdfs上运行它......但它不工作......请帮忙hduser@tarun-ubuntu:/home/tarun/spark/examples/src/main/python$curl-XPOST-H"Content-Type:application/json"tarun-ubuntu:8998/batches--data'{"file":"file:///home/tarun/spark/examples/src/main/python/pi

hadoop - 使用 tera gen 时从 kv.local/172.20.12.168 调用 localhost :8020 failed on connection exception,

我正在使用hadoopteragen检查hadoopmapreduce与terasort的基准测试。但是当我运行以下命令时,hadoopjar/Users/**/Documents/hadoop-2.6.4/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.4.jarteragen-Dmapreduce.job.maps=1001trandom-data我得到以下异常,17/06/0115:09:21WARNutil.NativeCodeLoader:Unabletoloadnative-hadooplibraryforyourp

Hadoop : java. io.IOException : No valid local directories in property: mapred. local.dir

当我运行hadoop作业时,它失败并显示以下堆栈跟踪:11/10/0613:12:49INFOmapred.FileInputFormat:Totalinputpathstoprocess:111/10/0613:12:49INFOmapred.JobClient:Cleaningupthestagingareahdfs://localhost:54310/app/hadoop/tmp/mapred/staging/Har/.staging/job_201110051450_000711/10/0613:12:49ERRORstreaming.StreamJob:ErrorLaunch

Hadoop on CentOS streaming example with python - permission denied on/mapred/local/taskTracker

我已经能够使用python映射器和缩减器设置流式示例。mapred文件夹位置是/mapred/local/taskTrackerroot和mapred用户都拥有此文件夹和子文件夹的所有权然而,当我运行我的流式传输时,它会创建map但不会减少并给出以下错误无法运行程序/mapred/local/taskTracker/root/jobcache/job_201303071607_0035/attempt_201303071607_0035_m_000001_3/work/./mapper1.py权限被拒绝我注意到,虽然它为mapred/local/taskTracker及其所有子目录提供

hadoop - 如何覆盖 mapred-site.xml 中的 mapred.local.dir?

我没有对mapred-site.xml中mapred.local.dir指定的目录的写入权限(也没有对mapred-site.xml的写入权限)有没有一种方法可以在每个session基础上覆盖此属性用于我的Hive作业? 最佳答案 您可以尝试通过执行以下查询在Hivesession中设置它:setmapred.local.dir='somedir';这应该有效。另一种选择是更改Hive引用的mapred-site.xml。确保配置未标记为最终配置。在这种情况下,它不能被覆盖。 关于had

hadoop - 与 HDFS 通信 : Exception in thread "main" java. io.IOException : Failed on local exception: java. io.EOFException

publicstaticvoidmain(String[]args)throwsIOException{Configurationconf=newConfiguration();conf.addResource(newPath("/home/myname/hadoop-1.2.1/conf/core-site.xml"));conf.addResource(newPath("/home/myname/hadoop-1.2.1/conf/hdfs-site.xml"));System.out.println("AttemptinginitializationofFileSystem");

python - 从 s3 ://to local(hadoop) file system 复制文件时出错

我正在尝试使用python将文件从s3复制到hadoop文件系统。我收到以下错误:cp:`foo/ds=2015-02-13/ip-d1b-request-2015-02-13_10-00_10-09.txt.gz':Nosuchfileordirectory我最近正在迁移最新的hadoop版本(2.4.0)。在版本(0.20)中工作正常。为什么我在2.4.0版本中会出现此错误?在Hadoop版本0.20中hadoop@ip-10-76-38-167:~$/home/hadoop/bin/hadoopfs-cps3://test.com/foo/ds=2015-02-13/ip-d1b

hadoop - Hive INSERT OVERWRITE LOCAL DIRECTORY 不起作用

我正在使用Cloudera5.3.3Hive。我正在尝试执行以下查询,shell>pwd/homeshell>mkdirtest;chmod777test;shell>ls-aldrwxrwxrwx3jaijai4096Oct506:45testhivequery>INSERTOVERWRITELOCALDIRECTORY'/home/test/test1'SELECT*FROMsome_table;当我从hive客户端执行时,它工作正常,并在/home/test文件夹中创建输出文件,但如果我从执行相同的操作,它不会创建文件直线。从运行Hive服务器2的计算机通过beeline连接到H