草庐IT

YARN-Cgroups

全部标签

hadoop - 使用 yarn 的 hive 问题

我在yarn上运行hivesql,它在连接条件下抛出错误,我能够创建外部表和内部表但是在使用命令时无法创建表createtableasASSELECTnamefromstudent.当通过hivecli运行相同的查询时它工作正常但是使用springjog它会抛出错误2016-03-2804:26:50,692[Thread-17]WARNorg.apache.hadoop.hive.shims.HadoopShimsSecure-Can'tfetchtasklog:TaskLogServletisnotsupportedinMR2mode.Taskwiththemostfailures

hadoop - 在 yarn 集群模式 AccessControlException 上执行 Spark

我有一些Spark代码可以分析CSV文件中的输入数据集。当我在集群模式下运行它时,出现以下错误(在本地模式下它到目前为止工作正常)。我的问题是:局部变量是否会影响不同worker的并行执行?我使用本地文件作为输入。我必须使用HDFS文件吗?我相信RDD是并行化的,输入文件可以存储在本地文件系统中。Exceptioninthread"main"org.apache.hadoop.security.AccessControlException:Permissiondenied:user=xxx,access=WRITE,inode="/":hdfs:supergroup:drwxr-xr-

linux - yarn 节点管理器未启动。没有错误

我在Ubuntu16.04上安装了Hadoop2.7.4。我正在尝试以伪模式运行它。我为所有hadoop文件、NameNode和DataNode文件安装了一个“/hadoop”分区。我的core-site.xml是:fs.defaultFShdfs://localhost:9000我的hdfs-site.xml是:dfs.replication1dfs.name.dir/hadoop/nodes/namenodedfs.data.dir/hadoop/nodes/datanode我的mapred-site.xml是:Map-Reduce.framework.nameyarn我的yarn

hadoop - 将 LD_PRELOAD 与 Apache Spark(或 YARN)结合使用

我们在ApacheHadoopYARN上运行Spark作业。我特别需要在这些作业上使用“LD_PRELOAD技巧”。(在任何人panic之前,它不是用于生产运行;这是自动化作业测试的一部分)。我知道如何在作业中提交额外的文件,我知道如何在节点上设置环境变量,所以将这些设置添加到spark-defaults.conf几乎提供了一个解决方案:spark.files=/home/todd/pwn_connect.sospark.yarn.appMasterEnv.LD_PRELOAD=pwn_connect.sospark.executorEnv.LD_PRELOAD=pwn_connect

hadoop - docker 中的 yarn - __spark_libs__.zip 不存在

我浏览了thisStackOverflow帖子,但它们对我帮助不大。我正在尝试让Yarn在现有集群上运行。到目前为止,我们一直在使用sparkstandalonemanger作为我们的资源分配器,它一直按预期工作。这是我们架构的基本概述。白框中的所有内容都在docker容器中运行。从master-machine我可以从yarn资源管理器容器中运行以下命令并运行一个使用yarn的spark-shell:./pyspark--masteryarn--驱动程序内存1G--executor-memory1G--executor-cores1--conf"spark.yarn.am.memory

java - 使用 Hadoop YARN 安装 HBase

我正在尝试在ubuntu上安装HBasev0.98.6。我已经在操作系统上运行了HadoopYARN。我应该停止现有的Hadoop进程并完全依赖HBase还是使用现有的YARN设置配置HBase?如果需要,我可以分享更多信息。我试图先在伪分布式上运行HBase,然后在分布式模式下运行。需要说明的是——我问的是在安装HBase之前是否需要运行HadoopYARN(以分布式方式——而不是在一台计算机上)。如果没有,并且我在那些计算机上仍然有HadoopYARN,它会导致HBase在这些服务器上运行时出现任何问题吗? 最佳答案 这个问题有

Hadoop 2.6.0 官方实例 : Yarn (MR2) much slower than Map Reduce (MR1) in single node setup

我开始玩hadoop2.6.0,根据officialdocumentation搭建了一个伪分布式单节点系统.当我运行简单的MapReduce(MR1)示例(参见“伪分布式操作->执行”)时,总执行时间约为7秒。更准确地说,bash的时间给出:real0m6.769suser0m7.375ssys0m0.400s当我通过Yarn(MR2)运行相同的示例时(参见“伪分布式操作->YARNonSingleNode”),总执行时间约为100sec,因此非常慢。bash的时间给出:real1m38.422suser0m4.798ssys0m0.319s因此,(出于某种原因)在用户空间之外存在大量

hadoop - 如何将参数从 web 请求传递到 spring boot yarn 应用程序

我正在使用spring-boot和spring-boot-yarn将yarn应用程序提交到集群。我的用例接近本教程中描述的用例https://github.com/spring-guides/gs-yarn-basic.唯一的区别是我的“客户端”应该是一个网络应用程序,并在发出网络请求时提交yarn作业。我遇到的问题是,对“客户端”网络应用程序的网络请求提供了我需要传递给yarn作业的参数。在上面的教程中,参数作为命令行参数传递给application.yml中指定的appmaster/容器。在我的例子中,这种方法不起作用,因为我为每个yarn作业设置了不同的参数集。有没有一种方法可以

Hadoop MapReduce (Yarn) 使用不同功率/规范的主机

我目前在集群中有高功率(cpu/ram)主机,我们正在考虑添加一些存储良好但功率低的主机。我担心的是它会降低工作绩效。来自新的(功能较弱的)主机的Map/Reducer将运行得更慢,而功能更强大的将只需要等待结果。有没有办法在Yarn中配置它?也许为主机设置优先级或根据每台机器上的核心数分配映射器/缩减器。谢谢,霍拉修 最佳答案 在YARN中,您可以为每个集群worker提供不同的硬件资源配置。然后,YARN将决定可以为每个工作人员分配多少任务(容器)以平衡工作量。换句话说,您可以在yarn-site.xml中为每个worker分别

hadoop - 通过 socks 代理将 YARN 作业提交到远程 Hadoop 集群

我正在尝试通过SOCKS代理访问运行YARN的防火墙Hadoop集群。集群本身没有使用代理连接——只有我在本地机器(例如笔记本电脑)上运行的客户端通过ssh-D9999user@gateway-host连接到可以看到Hadoop的机器簇。在Hadoop配置core-site.xml(在我的笔记本电脑上)中,我有以下几行:hadoop.socks.serverlocalhost:9999hadoop.rpc.socket.factory.class.defaultorg.apache.hadoop.net.SocksSocketFactory以这种方式访问​​HDFS效果很好。但是,当我