草庐IT

dbms_output

全部标签

尽管 mapred.output.compress=true,hadoop 流仍会生成未压缩的文件

我像这样运行一个hadoop流作业:hadoopjar/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/hadoop-streaming.jar-Dmapred.reduce.tasks=16-Dmapred.output.compres=true-Dmapred.output.compression.codec=org.apache.hadoop.io.compress.GzipCodec-inputfoo-outputbar-mapper"pythonzot.py"-reducer/bin/cat我确实在输出目录中得到了16个包含正确数据

java - 使用 java :no output 从 hadoop 读取文件

我正在尝试从HDFS读取和写入文件。首先,我试图阅读它并将其显示在控制台上。它运行时没有给出任何错误、警告,但它也没有在控制台上打印文件中的数据,我的文件已经保存在hdfs中,我可以在用户界面上看到它。我认为我给出的路径存在一些问题,我不确定,因为我是第一次将hadoop连接到java。我正在使用eclipse作为IDE。有人可以调查一下吗?我也尝试为名称节点提供50075端口号,但这也没有用。编辑:谁能告诉我如何在java中给出正确的路径以访问存储在hdfs中的文件?我遇到了这个异常文件file:/localhost:54310/user/hduser/project11/a.txt

hadoop - pig : How to save relation when "Scalar has more than two rows in the output"

因此,我正在处理一个包含http流量条目的日志文件。我正在尝试确定每个状态代码一天中每个小时的记录数。所以,我的想法输出是这样的:0(200,234)(201,100)(404,5553)1(200,2234)(201,1100)(404,53)....我有以下转换:e1=groupLINESBY(hour,statusCode);e2=foreache1generategroup.hour,group.statusCode,COUNT(LINES);e3=groupe2byhour;e4=foreache3{statusCount=foreache2generatestatusCod

hadoop - HDFS NFS 网关 mount.nfs : Input/output error?

HDFSNFSGateWaymount.nfs:输入/输出错误?1.报错如下:[root@xxsbin]#mount-tnfs-overs=3,proto=tcp,nolock,noacl,synclocalhost://hdfs_ymount.nfs:Input/outputerror2016-03-1015:12:06,350WARNorg.apache.hadoop.hdfs.nfs.nfs3.RpcProgramNfs3:Exception804org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.au

hadoop - 无法为输出方法 'output_xml.properties' 加载属性文件 'xml'(检查 CLASSPATH)

我正在尝试使用Apacheoozie创建一个sqoop工作流,但是当我执行脚本时出现以下错误:Causedby:com.sun.org.apache.xml.internal.serializer.utils.WrappedRuntimeException:Couldnotloadtheproperyfile'output_xml.properties'foroutputmethod'xml'(checkCLASSPATH)当我检查日志时,它说错误是由以下原因引起的:Causedby:com.sun.org.apache.xml.internal.serializer.utils.Wr

hadoop - 映射前在 Hadoop Mapper 中查询 DBMS 中的数据

我对Hadoop中的MapReduce有点陌生。我正在尝试处理来自许多日志文件的条目。映射器过程与WordCount中的过程非常相似。教程。publicvoidmap(LongWritablekey,Textvalue,OutputCollectoroutput,Reporterreporter)throwsIOException{Stringline=value.toString();StringTokenizertokenizer=newStringTokenizer(line);while(tokenizer.hasMoreTokens()){word.set(tokenizer

hadoop - 象夫 : output file giving error in Hadoop

在Hadoop上运行Mahout时出现以下错误。命令:mahoutrecommenditembased-sSIMILARITY_LOGLIKELIHOOD-i/user/inp-o/user/op--numRecommendations5错误:Runningonhadoop,using/usr/local/hadoop/bin/hadoopandHADOOP_CONF_DIR=MAHOUT-JOB:/opt/apache-mahout-distribution-0.11.0/examples/target/mahout-examples-0.11.0-job.jar15/11/0517

apache - 哈多普 : supporting multiple outputs for Map Reduce jobs

似乎Hadoop(reference)支持它,但我不知道如何使用它。我想:a.)Map-ReadahugeXMLfileandloadtherelevantdataandpassontoreduceb.)Reduce-writetwo.sqlfilesfordifferenttables为什么我选择map/reduce是因为我必须对驻留在磁盘上的超过100k(可能更多)xml文件执行此操作。欢迎大家提出更好的建议感谢任何解释如何使用它的资源/教程。我正在使用Python并且想学习如何使用streaming实现这一点谢谢 最佳答案 这

windows - mapred.JobClient : Error reading task output http:. .. 在 Windows 操作系统上从 Cygwin 运行 hadoop 时

我在Windows上运行来自Cygwin的“MahoutinAction”一书中的“从文档生成向量”样本。Hadoop仅在本地计算机上启动。下面是我的运行命令:$bin/mahoutseq2sparse-ireuters-seqfiles/-oreuters-vectors-ow但是下面显示java.io.IOException,有谁知道这个问题是什么原因造成的?提前致谢!Runningonhadoop,usingHADOOP_HOME=my_hadoop_pathHADOOP_CONF_DIR=my_hadoop_conf_path13/05/1318:38:03WARNdriver

java - Hadoop 文本输出格式 : add headers to CSV output

我正在维护一个简单的hadoop作业,该作业生成CSV文件作为HDFS中的输出。该作业使用TextOutputFormat。我想将前导标题行添加到csv文件(我知道零件文件是由不同的worker创建的,如果他们每个人都获得标题,那不是问题)。如何实现?编辑:级联可以help但乍一看我不想开始使用新框架编辑:所以我想为输出的CSV文件添加标题。列数是确定性的。这是我的Reducer类的骨架:importjava.io.IOException;importorg.apache.hadoop.io.IntWritable;importorg.apache.hadoop.io.Text;imp