草庐IT

HDFS_NAMENODE

全部标签

Hadoop HDFS 命令 - 重命名目录

在HDFS中重命名目录的最佳方法是什么?比如有2个文件夹A和B,每个文件夹都有10000多个文件。我想将B重命名为A,将A重命名为X。这可以通过mv命令实现吗?在这种情况下,幕后会发生什么(只是重命名或复制并删除)? 最佳答案 这只是发生的重命名。将所有数据block全部复制过来是非常昂贵的。相反,它只会重命名目录并更新Namenode元数据。 关于HadoopHDFS命令-重命名目录,我们在StackOverflow上找到一个类似的问题: https://s

java - 将文件从 HDFS 复制到 Windows 机器时出错

有一个安装并运行着Hadoop的Linux虚拟机。在Eclipse中运行的Java应用程序可以从HDFS检索数据。如果我在VM内将文件复制到HDFS或从HDFS复制文件,一切正常。但是当我从我的Windows物理机上运行该应用程序时,我遇到了下一个异常:WARNhdfs.DFSClient:Failedtoconnectto/127.0.0.1:50010forblock,addtodeadNodesandcontinue.java.net.ConnectException:Connectionrefused:nofurtherinformation.CouldnotobtainBP-

database - 将数据从 HDFS 加载到 Vertica

从HDFS加载数据到vertica时出现以下错误我只是停止了以前工作的数据库并在Vertica中创建了新数据库。然后我跑了vsql-f[AggregateFunctions.sql,AnalyticFunctions.sql,FilterFunctions.sql,JavaFunctions.sql,JavaUDLFunctions.sql,ParserFunctions.sql,SourceFunctions.sql,TransformFunctions.sql]当我尝试使用以下命令从HDFS加载数据时COPYexploded001SOURCEHdfs(url='http://had

没有 HDFS 存储的 Hadoop Namenode

我已经安装了一个总共有3台机器的hadoop集群,其中2个节点充当数据节点,1个节点充当名称节点和一个数据节点。我想澄清一些关于hadoop集群安装和架构的疑虑。这是我正在寻找答案的问题列表----我在集群中上传了一个大约500mb大小的数据文件,然后检查了hdfs报告。我注意到我制作的名称节点在hdfs中也占用了500mb大小,以及复制因子为2的数据节点。这里的问题是我不希望名称节点在其上存储任何数据,简而言之,我不希望它作为数据节点工作,因为它还存储我正在上传的文件。那么有什么办法让它只充当MasterNode而不是datanode呢?我尝试在名称节点上运行命令hadoop-dae

hadoop - 命令用法 :when to use hadoop fs and hdfs dfs

正如标题所说,我很困惑何时使用以“hdfsdfs”和“hadoopfs”开头的命令仅供引用,我是使用cloudera4.6quickstartvm的hadoop新手。 最佳答案 下面是三个看似相同但有细微差别的命令hadoopfs{args}hadoopdfs{args}hdfsdfs{args}hadoopfsFS与通用文件系统相关,它可以指向任何文件系统,如本地、HDFS等。因此,当您处理不同的文件系统(如LocalFS、HFTPFS、S3FS等)时,可以使用它hadoopdfsdfs非常特定于HDFS。将适用于与HDFS相关的

java - HDFS是否将不可拆分文件存储在一个数据节点中?

对于不可拆分的文件,如GZIP,将只有一个map作业,因为GZIP文件不可拆分。是否有任何选项或优化将此类文件的所有block存储在一个数据节点中,以便我们至少可以节省网络带宽? 最佳答案 将gzip文件的HDFSblock大小增加到大于文件大小应该可以解决问题。有关设置每个文件的HDFSblock大小的更多信息,请参阅此answer 关于java-HDFS是否将不可拆分文件存储在一个数据节点中?,我们在StackOverflow上找到一个类似的问题: htt

csv - 如何使用 Flume 将一组 csv 文件从我的本地目录复制到 HDFS

如何使用Flume将一组csv文件从我的本地目录复制到HDFS?我尝试使用假脱机目录作为我的来源,但未能复制。然后我使用以下水槽配置来获得我的结果:agent1.sources=tailagent1.channels=MemoryChannel-2agent1.sinks=HDFSagent1.sources.tail.type=execagent1.sources.tail.command=tail-F/home/cloudera/runs/*agent1.sources.tail.channels=MemoryChannel-2agent1.sinks.HDFS.channel=M

hadoop - 我的 hdfs 总是向许多损坏的 block 报告

我有一个运行hdfs(hadoop2.6.0)的集群,但它的名称节点向我报告了一个关于丢失block的错误:Thereare102missingblocks.Thefollowingfilesmaybecorrupted:当我跳转到名称节点并读取登录(名称节点文件日志)时,我收到许多警告,例如:ErrorreportfromDatanodeRegistration(10.3.24.71,datanodeUuid=b1aa43eb-bd9c-4e1a-b919-d7c99ad0fcdf,infoPort=50075,ipcPort=50020,storageInfo=lv=-56;cid

hadoop - Flink 在 YARN : Amazon S3 wrongly used instead of HDFS 上

我关注了FlinkonYARN'ssetupdocumentation.但是,当我使用./bin/yarn-session.sh-n2-jm1024-tm2048运行时,在向Kerberos进行身份验证时,出现以下错误:2016-06-1617:46:47,760WARNorg.apache.hadoop.util.NativeCodeLoader-Unabletoloadnative-hadooplibraryforyourplatform...usingbuiltin-javaclasseswhereapplicable2016-06-1617:46:48,518INFOorg.a

scala - Spark-scala 如何使用 HDFS 目录分区

为了减少处理时间,我按日期对数据进行分区,以便我只使用所需的日期数据(不是完整的表格)。所以现在在HDFS中,我的表格存储如下src_tbl//maindirtrg_tbl2016-01-01//subdir2015-12-302016-01-022015-12-312016-01-032016-01-012016-01-03现在我想从src_tbl中选择min(date)这将是2016-01-01从trg_tbl我想使用>=2016-01-01(src_tblmin(date))目录中的数据2016-01-01和2016-01-03数据`如何使用Spark-scala从hdfs选择所