草庐IT

confirm_input

全部标签

Hadoop 流与 Python : splitting input files manually

我是Hadoop的新手,正在尝试将其流功能与Python编写的映射器和缩减器一起使用。问题是我的原始输入文件将包含要由映射器识别的行序列。如果我让Hadoop拆分输入文件,它可能会在序列的中间进行拆分,因此不会检测到该序列。所以,我正在考虑手动拆分文件。这也将打破一些序列,因此,除此之外,我还将提供替代拆分,以创建与“第一个”拆分重叠的文件。这样我就不会丢失任何序列。我将运行thisarticle中描述的以下命令:hduser@ubuntu:/usr/local/hadoop$bin/hadoopjarcontrib/streaming/hadoop-*streaming*.jar\-

hadoop - HDFS NFS 网关 mount.nfs : Input/output error?

HDFSNFSGateWaymount.nfs:输入/输出错误?1.报错如下:[root@xxsbin]#mount-tnfs-overs=3,proto=tcp,nolock,noacl,synclocalhost://hdfs_ymount.nfs:Input/outputerror2016-03-1015:12:06,350WARNorg.apache.hadoop.hdfs.nfs.nfs3.RpcProgramNfs3:Exception804org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.au

java - mapreduce.input.keyvaluelinerecordreader.key.value.separator参数在hadoop安装中的位置

我在java中使用mapreduce来读取由“:”分隔的键值类型文件。我想出了如何解析文件(使用getConf().set("mapreduce.input.keyvaluelinerecordreader.key.value.separator",":");)。我试图找出存储这些参数的位置但找不到。我在hadoop安装上做了一个grep,但是没有设置这些参数的xml文件。根据documentation配置类,我试图在mapred-default.xml中找到该值,但没有成功。我在哪里可以找到这些值?其他一些参数也是如此。谢谢。 最佳答案

java - 失败 : ParseException line 1:94 mismatched input 'hdfs' expecting StringLiteral near 'location' in partition location

Java代码:Stringcmd0="hive-e\"use"+hiveuser+";sethive.exec.compress.output=true;setmapred.output.compression.codec=com.hadoop.compression.lzo.LzopCodec;setmapreduce.job.queuename="+queue+";altertable"+"resident_tmp"+"addifnotexistspartition(weekday='"+"weekday=20170807"+"')location"+location+"\"";C

hadoop - 组织.apache.ignite.IgniteException : For input string: "30s" in ignite hadoop execution

我想在apacheignite上执行Hadoop的字数统计示例。我在ignite中使用IGFS作为HDFS配置的缓存,但是在通过Hadoop提交作业以在ignite上执行后,我遇到了以下错误。提前感谢任何可以帮助我的人!Usingconfiguration:examples/config/filesystem/example-igfs-hdfs.xml[00:47:13]__________________________[00:47:13]/_/___/|//_/___/__/[00:47:13]_///(77//////_/[00:47:13]/___/\___/_/|_/___/

java - hadoop java : how to know that end of reducer input is reached?

我的reducer是这样的publicstaticclassReduceextendsMapReduceBaseimplementsReducer{ListallRecords=newArrayList();publicvoidreduce(IntWritablekey,Iteratorvalues,OutputCollectoroutput,Reporterreporter)throwsIOException{allRecords.add(values.next());Text[]outputValues=newText[7];for(inti=1;i>=7;i++){outputV

scala - java.lang.NumberFormatException : For input string: "|" 异常

我已经将一个表导入到HDFS中作为fields-terminated-by'|'sqoopimport\--connectjdbc:mysql://connection\--username\--password\--tableproducts\--as-textfile\--target-dir/user/username/productsdemo\--fields-terminated-by'|'之后,我尝试使用spark-shell版本1.6.2将其读取为RDDvarproductsRDD=sc.textFile("/user/username/productsdemo")并将其

hadoop - 从 "reduce input records"到 "reduce input groups"

运行MapRed作业后,我们会得到一些关于该作业的摘要,例如:...reduceinputrecords:10reduceinputgroups:3...我知道这是由组合重复键引起的。我的问题是reducer用来组合记录的方法是什么?key1.equals(key2)orkey1.hashCode==key2.hashCode?谢谢。 最佳答案 只有compareTo因为键必须实现WritableComparable.key.hashCode()用于分区原因。永远不会使用等于。 关于ha

hadoop - Apache pig -错误 2118 : For input string: "4f8:0:a111::add:9898"

我们最近升级了集群以使用Hadoop2.0.0-cdh4.4.0。更改后,我们需要重新安装pig,它曾经工作得非常好。安装后asdescribedhere,最简单的HBase作业不会创建。raw_protobuffer=LOAD'hbase://data_table'USINGorg.apache.pig.backend.hadoop.hbase.HBaseStorage('external_data:downloaded','-limit=1-gte=0-lte=1')AS(data:bytearray);魔法失败了:FailedJobs:JobIdAliasFeatureMessa

Hadoop : Number of input records for reducer

无论如何,每个reducer进程都可以确定它必须处理的元素或记录的数量吗? 最佳答案 简短回答-提前不,reducer不知道可迭代对象支持多少个值。您可以执行此操作的唯一方法是在迭代时进行计数,但您不能再对可迭代对象进行重新迭代。长答案-支持可迭代对象实际上是序列化键/值对的排序字节数组。reducer有两个比较器-一个用于按键顺序对键/值对进行排序,然后第二个用于确定键之间的边界(称为键分组器)。通常,键分组器与键排序比较器相同。当迭代特定键的值时,底层上下文检查数组中的下一个键,并使用分组比较器与前一个键进行比较。如果比较器确定