草庐IT

HDFS_DATANODE

全部标签

hadoop - 具有 6 到 7 个节点硬件配置的分布式 Spark 和 HDFS 集群

我计划旋转我的开发集群来为基础设施监控应用程序进行趋势分析,我计划使用Spark来分析故障趋势,并使用Cassandra来存储传入数据和分析数据。考虑从大约25000台机器/服务器(可能是不同服务器上的一组相同应用程序)收集性能矩阵。我期望每台机器的性能矩阵大小为2MB/秒,我计划将其插入具有时间戳、服务器作为主键和应用程序以及一些重要矩阵作为集群键的Cassandra表中。我将在此存储的信息之上运行Spark作业,以进行性能矩阵故障趋势分析。关于这个问题,考虑到上述情况,我需要多少个节点(机器)以及CPU和内存方面的什么配置来启动我的集群。 最佳答案

python - 如何将外部 python 库添加到 HDFS?

有什么办法,如何添加外部库,如thisone进入高清?pyspark似乎需要外部库才能将它们放在hdfs上的共享文件夹中。拜托,因为我使用的是shellscript,它使用外部库运行pyspark脚本,所以无法导入它们。见帖子here关于ImportError。 最佳答案 您可以使用--py-files选项添加外部库。您可以提供.py文件或.zip。例如,使用spark提交:spark-submit--masteryarn--py-files./hdfs.zipmyJob.py检查相应的文档:SubmittingApplicatio

hadoop - 如何将我的数据从本地 HDFS 安全地传输到 Google Cloud Storage?

我在本地HDFS安装中有大量数据。我想将其中一些移动到GoogleCloud(云存储),但我有一些顾虑:我实际上如何移动数据?我担心在公共(public)互联网上移动它将数据从我的HDFS存储安全地移动到CloudStorage的最佳方法是什么? 最佳答案 要将数据从本地Hadoop集群移动到GoogleCloudStorage,您可能应该使用GoogleCloudStorageconnectorforHadoop.您可以按照installdirections在任何集群中安装连接器.请注意,GoogleCloudDataproc集群

file - hadoop -appendToFile 与 hadoop -put 在用于将流数据连续更新到 hdfs 时有什么区别

根据hadoop源代码,从类中提取了以下描述-appendToFile"Appendsthecontentsofallthegivenlocalfilestothegivendstfile.Thedstfilewillbecreatedifitdoesnotexist."放"Copyfilesfromthelocalfilesystemintofs.Copyingfailsifthefilealreadyexists,unlessthe-fflagisgiven.Flags:-p:Preservesaccessandmodificationtimes,ownershipandthemo

hadoop - HDFS复制因子是如何决定的?

HDFS中的复制因子必须至少为3。尽管选择它为3的主要目的是容错,并且机架故障的可能性远小于节点故障的可能性,复制因子至少为3背后还有其他原因吗? 最佳答案 复制因子没有理由必须是3,这是hadoop自带的默认值。您可以为HDFS中的每个文件单独设置复制级别。除了容错之外,拥有副本还允许使用相同数据的作业并行运行。此外,如果有数据的副本,hadoop可以尝试运行同一任务的多个副本,并选择最先完成的副本。如果由于某种原因盒子运行缓慢,这很有用。 关于hadoop-HDFS复制因子是如何决定

hadoop - 如何防止将空 Avro 文件提交到 HDFS?

我的工作是在HDFS中创建一个Avro文件,并在该文件中附加数据。然而,偶尔不会有任何数据追加,在这种情况下我不希望应用程序刷新并关闭文件,而是应该检查文件是否为空(但我假设Avro模式将被写入header所以技术上不是一个空文件)并删除该文件,如果它是空的。这对Avro+HDFS库可行吗? 最佳答案 尝试使用LazyOutputFormat在指定作业的输出格式时。它延迟创建输出,这意味着只有在输出存在时才会创建输出文件。所以不要写这样的东西:job.setOutputFormatClass(TextOutputFormat.cla

大数据技术原理与应用 概念、存储、处理、分析和应用(林子雨)——第三章 分布式文件系统HDFS

第三章分布式文件系统HDFS大数据要解决数据存储问题,所以有了分布式文件系统(DFS),但可能不符合当时的一些应用需求,于是谷歌公司开发了GFS(GooglefileSystem)。GFS是闭源的,而HDFS是对GFS的开源实现。1.GFS和DFS有什么区别?GFS(GoogleFileSystem)和DFS(DistributedFileSystem)都是分布式文件系统,但是它们有以下几个不同点:1.设计目标不同:GFS是为了在大规模集群中处理大型文件而设计的,而DFS更侧重于在多个计算机之间共享和存储文件。2.数据复制策略不同:GFS使用了一种称为“三副本策略”的数据复制策略,即将数据分成

ubuntu - Hadoop namenode 找不到datanode

环境:2台Ubuntu14.04VM在VMware工作站下运行。我已经成功地设置了一个单节点集群,现在我正在尝试设置一个完全分布式的集群,其中一个名称节点在主节点上运行,一个数据节点在从节点上运行。运行start-dfs.sh和start-yarn.sh后,我可以在主从机器上看到所有需要的进程。(主节点和数据节点上的namenode、resourcemanager、secondarynamenode,从节点上的nodemanager。但是我在master:50070(namenodewebapp)上找不到我的数据节点。telnetmaster9000来自slave的回复成功连接。这一整

hadoop namenode、datanode、secondarynamenode 没有启动

我刚刚下载了hadoop-0.20tar并解压了。我设置了JAVA_HOME和HADOOP_HOME。我修改了core-site.xml、hdfs-site.xml和mapred-site.xml。我开始服务了。jpsjpsJobTrackerTaskTracker我检查日志。它说2015-02-1118:07:52,278INFOorg.apache.hadoop.hdfs.server.namenode.NameNode:STARTUP_MSG:/************************************************************STARTUP_

hadoop - 在 HDFS 中创建文件但不附加任何内容

我正在使用HTTP源将JSON文件放入HDFS(单节点SANDBOX)。文件在正确的目录中创建,但没有任何内容附加到文件中。在我开始调试HTTP源之前,你能验证我的flume.conf吗?##################################################################Namethecomponentsonthisagent#################################################################hdfs-agent.sources=httpsourcehdfs-agent.sin