草庐IT

custom-formatting

全部标签

hadoop 2.7.3 HDFS Namenode -format No Such FIle or Directory 错误

我正在尝试使用this在Lubuntu机器上安装Hadoop2.7.3|教程。我正处于使用namenode-format命令格式化HDFS的时间点。每当我这样做时,我都会收到此错误:HadoopBot@hadoopmaster-MS-7756:~/Hadoop/hadoop/bin$/home/HadoopBot/Hadoop/hadoop/bin/hdfsnamenode-format/home/HadoopBot/Hadoop/hadoop/bin/hdfs:line304:/home/HadoopBot/Hadoop/hadoop/bin/$/usr/lib/jvm/java-8

java - ORC 文件元数据 : writing custom key value?

有没有办法将额外的元数据写入ORC文件?我找到了一种使用“KeyValueMetadata”在Parquet上做到这一点的方法。我查看了UserMetadataItem类,但不确定Orc是否提供了添加自定义元数据的方法。我想找到一种使用java的方法。 最佳答案 您可以将自定义键值对写入ORC文件的元数据。唯一的限制是在键值对中,键必须是字符串,值必须是二进制。查看此处了解更多信息:https://orc.apache.org/docs/file-tail.html#user-metadata

hadoop - EMR Hue : CUSTOM server authentication not supported. 有效的是 ['NONE' , 'KERBEROS' , 'PAM' , 'NOSASL' , 'LDAP' ]

当我为Hive启用“自定义”身份验证时,Hue无法连接到HiveServer2。它抛出以下错误:CUSTOMserverauthenticationnotsupported.Validare['NONE','KERBEROS','PAM','NOSASL','LDAP'].如果我们使用自定义身份验证提供程序配置Hive,这是否意味着Hue不起作用?Hive本身工作正常,JDBC/ODBC使用自定义身份验证也按预期工作。有解决办法吗?引用:https://cwiki.apache.org/confluence/display/Hive/Setting+Up+HiveServer2

hadoop - 执行 hadoop namenode -format

我正在尝试在hadoop上工作,因此我使用:-Java1.6Eclipse欧罗巴3.3.2安装Cygwinhadoop0.19.1当我使用命令时发生错误:-$hadoop-*/bin/hadoopnamenode-format/home/user/hadoop-0.19.1/bin/../conf/hadoop-env.sh:line2:$'\r':commandnotfound/home/user/hadoop-0.19.1/bin/../conf/hadoop-env.sh:line7:$'\r':commandnotfound/home/user/hadoop-0.19.1/bi

java - Hadoop Custom Partitioner 的行为不符合逻辑

基于这个例子here,这有效。在我的数据集上尝试过相同的方法。示例数据集:OBSERVATION;2474472;137176;OBSERVATION;2474473;137176;OBSERVATION;2474474;137176;OBSERVATION;2474475;137177;将每一行视为字符串,我的Mapper输出为:key->string[2],value->string.我的分区程序代码:@OverridepublicintgetPartition(Textkey,Textvalue,intreducersDefined){StringkeyStr=key.toStr

Hadoop 2.9.0 - hadoop namenode -format 和 hdfs-site.xml dfs.namenode.name.dir

我的第一个问题,我会尽量不把事情搞砸:)出于学习目的,我正在4节点集群上安装Hadoop2.9.0。我已经按照官方ApacheHadoop2.9.0文档和一些谷歌页面开始安装/配置名称节点。我像这样编辑了位于$HADOOP_HOME/etc/hadoop目录下的hdfs-site.xml:dfs.namenode.name.dirfile:///apps/hdfs/namenode/datadfs.datanode.data.dirfile:///apps/hdfs/datanode/datadfs.namenode.checkpoint.dirfile:///apps/hdfs/na

python - PySpark:使用 newAPIHadoopFile 从多行记录文本文件中读取、映射和减少

我正在尝试解决一个类似于thispost的问题.我的原始数据是一个文本文件,其中包含多个传感器的值(观测值)。每个观察都带有时间戳,但传感器名称只给出一次,而不是在每一行中给出。但是一个文件中有多个传感器。TimeMHist::852-YF-0072016-05-1000:00:0002016-05-0923:59:0002016-05-0923:58:0002016-05-0923:57:0002016-05-0923:56:0002016-05-0923:55:0002016-05-0923:54:0002016-05-0923:53:0002016-05-0923:52:0002

Hadoop MapReduce : Custom Input Format

我有一个文件,其中包含文本和“^”之间的数据:一些文字^在这里^还有一些^更多到这里我正在编写自定义输入格式以使用“^”字符分隔行。即映射器的输出应该是这样的:一些文字去这里还有一些更多内容在这里我编写了一个扩展FileInputFormat的自定义输入格式,还编写了一个扩展RecordReader的自定义记录阅读器。下面给出了我的自定义记录阅读器的代码。我不知道如何处理这段代码。在WHILE循环部分使用nextKeyValue()方法时遇到问题。我应该如何从拆分中读取数据并生成自定义键值?我正在使用所有新的mapreduce包而不是旧的mapred包。publicclassMyRec

java - 运行 bin/hadoop namenode -format 时出现 fatal error

运行bin/hadoopnamenode-format时出现fatalerror使用Windows7操作系统,在C:\cygwin\usr\local\hadoop-0.20.203.0\conf下编辑hadoop-env.sh文件,#exportJAVA_HOME=C:/ProgramFiles/Java/jdk1.6.0_24exportJAVA_HOME=C:/jdk1.6.0_24.我将我的Java类路径设置为C:/jdk1.6.0_24。FatalError]hdfs-site.xml:5:2:Themarkupinthedocumentfollowingtherootele

hadoop - Apache pig : Can we convert a custom Writable object to Pig format?

我们有一个自定义可写值对象的SequenceFile,该对象本质上等同于Pig中的复杂包数据类型。有没有一种方便的方法,我们可以编写自定义函数将hadoopWritable对象转换为bag数据类型,然后使用pig脚本对其进行处理? 最佳答案 一种选择是查看elephant-bird-如果你向下滚动这个github页面到README部分,它有一个关于Pig的部分:PigIncludesconverterinterfaceforturningTuplesintoWritablesandviceversa我从来没有用过它,我想你必须自己实