草庐IT

HDFS_NAMENODE

全部标签

hadoop - -Dpig.additional.jars 包含 HDFS 和本地文件系统上的文件

如何将jar从我的本地文件系统和Hadoop分布式文件系统(HDFS)传递到-Dpig.additional.jars?假设我有两个jar:/home/local/myjar1.jarhdfs:///user/notlocal/myjar2.jar第一个jar在我的本地目录中。第二个jar在HDFS中。我想在Hadoop集群上运行test_script.pig1并将以上两个jar包含在-Dpig.additional.jars中。pig-xmapreduce-ftest_script.pig1-Dpig.additional.jars=/home/local/myjar1.jar:hd

hadoop - 不允许Datanode连接到Hadoop 2.3.0集群中的Namenode

我正在尝试建立一个ApacheHadoop2.3.0集群,我有一个主节点和三个从节点,从节点列在$HADOOP_HOME/etc/hadoop/slaves文件中,我可以从从节点远程登录到端口9000上的主名称节点,但是当我在任何从节点上启动数据节点时,我得到以下异常。2014-08-0308:04:27,952FATALorg.apache.hadoop.hdfs.server.datanode.DataNode:InitializationfailedforblockpoolBlockpoolBP-1086620743-xx.xy.23.162-1407064313305(Data

hadoop - 使用 http 源在具有相同扩展名的 HDFS 中保存文件(不同扩展名)

我需要创建一条数据管道,其中源是HTTP,接收器是HDFS来发布数据和文件。问题是我想用与最初发送到HTTP源相同的扩展名保存文件。我用下面的脚本创建了一个流流创建httpToHdfs--defination"http|HDFS"--deploy但是当我以.gzip/.xml/.json格式上传文件时,它会将文件存储在.txt中我只想通过HTTP源复制HDFS中的文件,springxd可以吗? 最佳答案 hdfs接收器用于将基于文本的流写入hdfs。它采用名为--fileExtension的选项,您可以在其中指定文件扩展名。虽然这个

java - nodemanager连接到resourcemanager,但datanode没有连接到namenode

我在CentOS7.0上安装了hadoop2.5.1。(1)当我在hadoop上运行应用程序时,我怀疑下面的消息路径“/tmp/hadoop-yarn/staging/hadoop/.staging/job_1424775783787_0001/files”是由于兼容性导致的。如果是兼容性问题,我该如何修补??15/02/2420:27:41ERRORstreaming.StreamJob:ErrorLaunchingjob:File/tmp/hadoop-yarn/staging/hadoop/.staging/job_1424775783787_0001/files/Formatt

hadoop - 如何从 hdfs 符号链接(symbolic link)读取多个文本文件

我正在尝试从spark中读取hdfs符号链接(symboliclink)的多个部分文件。如果路径是物理路径,我可以使用通配符(*)从路径中读取多个文件例如sparkContext.textFile(/some/path/file_123321_00/part-r-000*)但是我已经在hdfs上创建了指向这个名为“fullset”的文件夹的符号链接(symboliclink)。当我使用/some/path/fullset/part-r-000*它无法检测到任何路径。我在两条路径上都尝试了hadoopfs-ls。第一个可以工作,但是带有符号链接(symboliclink)的一个不能按预期

hadoop - 为什么匿名 FTP 到 HDFS DistCp 不起作用?

我尝试使用以下命令将FTP数据复制到HDFS,hadoopdistcpftp://ftp.ncdc.noaa.gov/pub/data/noaa/1901/data/noaa/1901/这是我收到的错误15/03/0411:29:13INFOtools.DistCp:InputOptions:DistCpOptions{atomicCommit=false,syncFolder=false,deleteMissing=false,ignoreFailures=false,maxMaps=20,sslConfigurationFile='null',copyStrategy='unifo

r - 将 Hive 表从 HDFS 移动到 Amazon Redshift

我尝试将通过连接4-5个数据集创建的Hive表传输到Redshift。这个过程应该如何实现?我们在边缘节点上有可用的R。Hive表必须先传输到S3,然后从s3传输到Redshift。这是唯一的方法吗?是否可以使用R,即使用RHive包将我的数据集从HDFS移动到R,然后将该数据集从R移动到Redshift? 最佳答案 您可以使用RJDBC连接到Redshift(Redshift是pgsql)。因此,您可以使用从配置单元读取一行,并使用R中的RJDBC将其加载到Redshift。您创建1000个或更多的批处理并插入Redshift。如

用于检查 Namenode 状态的 Python 脚本

我是Python的新手,目前只通过在线研究学到了一些东西。只是想知道为什么我的输出是“错误”而不是“成功”。请看下面的代码:#!/usr/bin/python-vimportosimportsubprocessf=os.popen("hdfshaadmin-getServiceStatenn2")now=f.read()status="active"ifnow==status:print"success"else:print'error'谢谢,阿尼尔 最佳答案 (将评论移至答案)每当从诸如popen之类的东西或任何地方提取文本时,我

hadoop - 如果我们使用Sqoop从MySql导入数据到HDFS,HDFS存储的文件格式是什么?

如果我们使用Sqoop从MySql导入数据到HDFS,HDFS存储的文件格式是什么 最佳答案 Sqoop已将您的数据导入为逗号分隔的文本文件。它支持许多其他文件格式,可以使用下面列出的参数激活控制导入命令文件格式的mSqoop参数参数--as-avrodatafileDataisimportedasAvrofiles.--as-sequencefileDataisimportedasSequenceFiles.--as-textfileThedefaultfileformat,withimporteddataasCSVtextfil

security - 在 HDFS 中创建一次写入文件

我有一个正在努力解决的要求。我的目标是创建一个在后台自动捕获的用户进程和命令的历史文件,创建一个实时存档到Hadoop的历史文件。日志系统连接终止后,用户不应编辑或删除该文件。我当前的结构将我的日志系统通过管道传输到hadoopfs-put-命令。问题是创建的文件归用户所有,使他们能够删除该文件。有没有办法让目录级别的执行权限覆盖HDFS中的用户所有权权限?还有另一种方法可以解决这个问题吗? 最佳答案 我不确定,您是在寻找hdfs-chmod还是-chown命令? 关于security-