草庐IT

cluster-computing

全部标签

hadoop - yarn : How to utilize full cluster resources?

所以我有一个带有7个工作节点的cloudera集群。30GB内存4个vCPU以下是我发现的一些配置(来自Google)对于调整我的集群性能很重要。我正在运行:yarn.nodemanager.resource.cpu-vcores=>4yarn.nodemanager.resource.memory-mb=>17GB(为操作系统和其他进程预留)mapreduce.map.memory.mb=>2GBmapreduce.reduce.memory.mb=>2GB运行nproc=>4(可用处理单元数)现在我担心的是,当我查看我的ResourceManager时,我看到可用内存为119GB,

Hadoop 虚拟集群 vs 单机

我有一个关于速度和性能的问题在单台机器上使用多个虚拟化节点VS在单台机器上使用单节点。哪一个会表现更好?之所以问这个问题是因为我目前是在单机上学习hadoop,在网上看到一些教程是单机多虚拟化节点的使用。提前致谢 最佳答案 虚拟化总是会带来一些开销,因此除非真的有必要,否则我不建议在虚拟化环境中运行Hadoop。也就是说,我知道VMWare在使Hadoop在虚拟化环境中工作方面做了很多工作,并且他们已经发布了somebenchmarks他们声称在某些情况下,VM的性能优于native应用程序。我对vSphere的了解不多,但如果您想

java - Apache Spark :-Nullpointer Exception on broadcast variables (YARN Cluster mode)

我有一个简单的spark应用程序,我试图在YARN集群上广播一个String类型的变量。但是每次我尝试访问广播变量值时,我都会在任务中得到空值。如果你们可以提出建议,那将非常有帮助,我在这里做错了什么。我的代码如下:-publicclassTestAppimplementsSerializable{staticBroadcastmongoConnectionString;publicstaticvoidmain(String[]args){StringmongoBaseURL=args[0];SparkConfsparkConf=newSparkConf().setAppName(Co

hadoop - Map Reduce 插槽定义

我即将成为一名ClouderaHadoop管理员。从一开始,我就听到很多关于Hadoop集群中每台机器计算槽的信息,比如定义MapSlot和Reduce槽的数量。我在互联网上搜索了一个日志时间来获取MapReduceSlot的新手定义,但没有找到。浏览PDF解释MapReduce配置时,我真的很生气。当涉及到集群机器中的计算插槽时,请解释它的确切含义。 最佳答案 在map-reducev.1中,mapreduce.tasktracker.map.tasks.maximum和mapreduce.tasktracker.reduce.t

r - Ubuntu集群管理

我正在尝试找出一个解决方案来管理一组linux机器(操作系统:Ubuntu,~40个节点。相同的硬件)。这些机器应该是彼此的镜像,安装在一台机器上的软件需要安装在另一台机器上。我的软件需求是hadoop、R和servicemix。所有机器上的R包也需要同步(安装在一台机器上的包需要在所有其他机器上可用)我现在使用的一种解决方案是使用NFS和pssh。我希望有更好/更简单的解决方案,这会让我的生活更轻松一些。任何建议表示赞赏。 最佳答案 两个流行的选择是Puppet来自PuppetLabs和Chef来自OpsCode。另一种可能的机制

hadoop - 从节点不在 Yarn ResourceManager 中

我设置了一个3节点ApacheHadoop集群。在主节点上,我可以看到[hadoop-conf]$jps16856DataNode17051SecondaryNameNode16701NameNode21601ResourceManager21742NodeManager18335JobHistoryServer在从属节点上,我看到了[fedora20-templatedfs]$jps28677Jps28510NodeManager27449DataNode我可以看到来自master:50070的三个事件节点。但是,在ResourceManagerWebUI(http://master

java - yarn 异常 : Unauthorized request to start container

我已经在3个集群上设置了hadoop2.2.0。一切顺利。NodeManager和Datanode在每个集群中启动。但是,当我运行wordcount示例时,会发生100%映射并出现以下异常:map100%reduce0%13/11/2809:57:15INFOmapreduce.Job:TaskId:attempt_1385611768688_0001_r_000000_0,Status:FAILEDContainerlaunchfailedforcontainer_1385611768688_0001_01_000003:org.apache.hadoop.yarn.exceptio

scala - Cluster 模式下使用 Spark 写入文件到本地系统

我知道这是一种使用Spark的奇怪方式,但我正在尝试使用Spark将数据帧保存到本地文件系统(不是hdfs),即使我处于集群模式。我知道我可以使用客户端模式,但我确实想在集群模式下运行并且不关心哪个节点(3个中的)应用程序将作为驱动程序运行。下面的代码是我正在尝试做的伪代码。//createdataframevaldf=Seq(Foo("John","Doe"),Foo("Jane","Doe")).toDF()//saveittothelocalfilesystemusing'file://'becauseitdefaultstohdfs://df.coalesce(1).rdd.s

hadoop - 了解 Spark : Cluster Manager, Master 和 Driver 节点

读完这篇question,我想再问一些问题:集群管理器是一个长期运行的服务,它在哪个节点上运行?主节点和驱动节点可能是同一台机器吗?我假设某处应该有一条规则说明这两个节点应该不同?如果Driver节点出现故障,谁负责重新启动应用程序?究竟会发生什么?即主节点、集群管理器和工作节点将如何参与(如果他们参与),以及以什么顺序参与?与上一个问题类似:如果主节点发生故障,具体会发生什么情况以及谁负责从故障中恢复? 最佳答案 1.TheClusterManagerisalong-runningservice,onwhichnodeitisru

hadoop - 在hadoop集群中,hive应该安装在所有节点上吗?

我是Hadoop/Hive的新手,我刚刚开始阅读文档。有很多关于在集群模式下安装Hadoop的博客。另外,我知道Hive在Hadoop之上运行。我的问题是:Hadoop安装在所有集群节点上。我还应该在所有集群节点上安装Hive还是只在主节点上安装? 最佳答案 不,它不是您安装在工作节点上的东西。Hive是一个Hadoop客户端。只需根据您在Hivesite中看到的说明运行Hive. 关于hadoop-在hadoop集群中,hive应该安装在所有节点上吗?,我们在StackOverflow