草庐IT

Namenode-HDFS

全部标签

hadoop - 如何从每个节点访问 hadoop-yarn 应用程序上的 hdfs?

如何在“HADOOP(2.5.2)YARN应用”中访问HDFS并从各个节点读写文件?我通常知道YARN应用程序运行在HDFS上。我没有可以回答这些基本问题的网站或文档,所以我想问一下。 最佳答案 YARN应用程序在YARN中运行(或至少请求内存空间),而不是HDFS。HDFS只是一个用于文件存储的文件系统。您使用多种工具进行读写,例如HadoopCLI、MapReduce、ApacheSpark等。例如CLI是hadoopfs-put/local-filehdfs://remote/file这些应用程序是否由YARN管理与HDFS文

scala - HDFS : java. io.FileNotFoundException : File does not exist: name. _COPYING

我正在使用Scala处理SparkStreaming。我需要使用此行从HDFS目录动态读取.csv文件:vallines=ssc.textFileStream("/user/root/")我使用以下命令行将文件放入HDFS:hdfsdfs-put./head40k.csv它适用于相对较小的文件。当我尝试使用更大的一个时,出现此错误:org.apache.hadoop.ipc.RemoteException(java.io.FileNotFoundException):Filedoesnotexist:/user/root/head800k.csv._COPYING我能理解为什么,但我不

java - Hadoop 2.7 - 在 HDFS 中创建目录的简单 Java 代码

我正在尝试的是以编程方式使用Java在HDFS中创建一个目录。我收到此错误。线程“main”中的异常java.util.ServiceConfigurationError:org.apache.hadoop.fs.FileSystem:Providerorg.apache.hadoop.fs.s3a.S3AFileSystem无法实例化引起:java.lang.NoClassDefFoundError:com/amazonaws/AmazonServiceException由以下原因引起:java.lang.ClassNotFoundException:com.amazonaws.Am

hadoop - HDFS 和 ZooKeeper 之间的区别?

在阅读ZooKeeper的文档时,在我看来,HDFS依赖于与ZooKeeper几乎相同的分发/复制机制(广义上讲)。我听到一些回声,但我仍然不能清楚和严格地分辨事物。我知道ZooKeeper是一个集群管理/同步工具,而HDFS是一个分布式文件管理系统,但是HDFS集群是否需要ZK? 最佳答案 是的,因素是具有zookeper仲裁的hadoop集群上的分布式处理和高可用性例如。HadoopNamenode故障转移过程。Hadoop高可用性是围绕ActiveNamenode和StandbyNamenode设计的,用于故障转移过程。在任何

hadoop - 权威指南 - 为什么 hdfs 中的 block 这么大

我从权威指南(HDFS概念-block)中看到了以下段落,但无法理解。MapReduce中的映射任务通常一次在一个block上运行,因此如果您的任务太少(少于集群中的节点),您的作业将比其他方式运行得更慢。我想知道与集群中的节点总数相比,当任务很少时,作业会如何变慢。假设集群中有1000个节点和3个任务(按任务我取block,因为每个block被发送到一个节点用于单个任务),获得结果所花费的时间总是少于说1000的场景节点和1000个任务对吗?权威指南中给出的段落无法说服我。 最佳答案 您从书中引用的段落基本上是说“尽可能多地利用节

scala - 使用 Spark 在 HDFS 上压缩 Har 文件

我有大量的hadoop存档.har格式的数据。因为har不包含任何压缩,所以我试图进一步将其压缩并存储在HDFS中。我唯一可以毫无错误地开始工作的是:harFile.coalesce(1,"true").saveAsTextFile("hdfs://namenode/archive/GzipOutput",classOf[org.apache.hadoop.io.compress.GzipCodec])//`coalesce`becauseGzipisn'tsplittable.但是,这并没有给我正确的结果。生成了一个Gzipped文件,但输出无效(单行说明rdd类型等)任何帮助将不胜

hadoop - Hadoop 中的副本在 NameNode 上所需的内存

在thisCloudera博文,在Replication部分,已经解释了复制不会消耗NameNode上的内存。但是,我对此持怀疑态度,因为我知道NameNode在主内存中存储有关每个文件及其副本的信息。那么,无论有无复制,内存需求如何相同? 最佳答案 那么内存消耗取决于你的意思,因为有物理内存和虚拟内存(我这里只说Namenode)就物理内存而言,Cloudera博客是正确的,因为Datanode有责任与Namenode通信(例如,在重启后连接时)它维护的block。Namenode仅将文件系统结构存储到磁盘(fsimage和编辑文

hadoop - 如何在 HBase 集群设置中添加辅助 NameNode?

我有一个包含3个节点的Hbase集群设置:一个NameNode和2个DataNode。NameNode是一个4GB内存和20GB硬盘的服务器,而每个DataNode有8GB内存和100GB硬盘。我正在使用ApacheHadoop版本:2.7.2和ApacheHbase版本:1.2.4我看到有人提到了辅助NameNode。我的问题是,在我的设置中没有辅助NameNode有什么影响?是否可以使用其中一个DataNode作为辅助NameNode?如果可能,我该怎么做?(我只在/etc/hadoop/masters文件中插入了NameNode。) 最佳答案

hadoop - Spark 数据集写入 HDFS 期间创建的空分区

尝试使用write方法将数据集/数据帧作为Parquet保存到hdfs。分区在HDFS中创建,但数据为空。我正在使用Spark版本-2.xdataset.write.mode("append").partitionBy("empNo").format("parquet").save("hdfspath")或dataset.write.mode(SaveMode.Overwrite).save("hdfspath")请推荐 最佳答案 我刚刚检查了它的数据框。根据您的查询将其分区在单个列上。在具有适当值的输出文件夹中创建了两个分区文件夹

macos - Hadoop2.7.3 : Cannot see DataNode/ResourceManager process after starting hdfs and yarn

我使用的是mac和java版本:$java-versionjavaversion"1.8.0_111"Java(TM)SERuntimeEnvironment(build1.8.0_111-b14)JavaHotSpot(TM)64-BitServerVM(build25.111-b14,mixedmode)点击此链接:https://dtflaneur.wordpress.com/2015/10/02/installing-hadoop-on-mac-osx-el-capitan/我先brewinstallhadoop,根据需要配置ssh连接和xml文件,start-dfs.shst