草庐IT

Telegram-master

全部标签

java - Master 和 Slave 节点都必须进行哪些 Hadoop 配置?

我们是否必须同时修改hadoop集群的主从节点的mapred-site.xml参数,例如并行执行的map和reduce任务的最大数量,或者只有主节点的配置更改才会足够了。在mapred-site.xml中对主节点上的mapred.map.child.java.opts和mapred.reduce.child.java.opts等参数所做的更改是否也会在客户端节点上进行更改?或者我们两者都做了。我们是否必须在主节点和客户端节点都指定dfs.block.size以使block大小不同于默认值?如果没有,是否有必须在主节点和客户端节点指定的参数来优化hadoop集群?

hadoop - 区域服务器无法联系 HBase Master

我有一个由3个slave和1个master组成的Hadoop集群,上面有一个分别有3个RS和1个master的HBase集群。此外,在3台机器上还有一个Zookeeper集成。Hadoop集群以及Zookeeper整体正常运行。但是,HBase集群未能正确初始化。我通过运行./bin/start-hbase.sh启动HBase。这正确启动了HBaseMaster和区域服务器。hdfs中的hbase文件夹已正确设置。jpsonmasterhduser@master:~/hbase$jps5694HMaster3934JobHistoryServer3786NameNode3873Reso

hadoop - Yarn Application master 和容器分配

在YARN中,应用程序主机向资源管理器请求资源,以便可以启动该应用程序的容器。applicationmaster是在启动第一个容器之前等待所有资源分配完毕,还是请求每个容器,当它获得容器的资源时,它开始启动特定的容器?即只有部分资源可用时的情况呢?它是否等待资源被释放?还是根据可用资源继续?MR应用程序主机如何决定MR作业的资源需求?是YARNMR客户端确定这个并将它发送给AM还是AM找到它?如果是这样,这是基于什么?我相信这是可配置的,但我可能在谈论未提供内存和CPU时的默认情况。 最佳答案 不,AM不会等待所有资源分配完毕。相反

hadoop - 我可以强制 YARN 使用 Application Master 容器的主节点吗?

在我的Hadoop/Spark运行期间,我的大主节点硬件几乎什么都不做,因为YARN在每个任务上为其AM使用随机从节点。我更喜欢旧的Hadoop1;当出现问题时,通过这种方式可以避免大量的日志追踪和ssh痛苦。这可能吗? 最佳答案 Spark和YARN节点标签是可能的。标记你的节点使用spark.yarn.am.nodeLabelExpression属性好读:https://developer.ibm.com/hadoop/2017/03/10/yarn-node-labels/ 关于h

hadoop - master.HMaster : Failed to become active master SIMPLE authentication is not enabled. 可用:[TOKEN]

我正在尝试在我的本地MAC机器上设置hbase。我通过brew安装了hadoop和hbase。hadoop和hbase的版本分别是2.7.1和1.1.2。我正在尝试以伪分布式模式运行并希望禁用身份验证,因此在以下文件中进行了以下更改。我正在使用hbase动物园管理员。以下是启用SIMPLE身份验证的更改/etc/hadoop/core-site.xmlhadoop.security.authenticationsimplehadoop.security.authorizationfalse还对libexec/conf/hbase-site.xml进行了以下更改hbase.rootdir

apache - HRegionServer 显示 "error telling master we are up"。显示套接字异常 : Invalid argument

我正在尝试在3台centos机器上创建一个hbase集群。Hadoop(v-2.8.0)已启动并在我配置的HBase(v-1.2.5)上运行。Hbase启动正常,它启动了HMaster和区域服务器,但它仍然在区域服务器和HMaster日志中显示以下错误它显示没有区域服务器被checkin。2017-04-2019:30:33,950WARN[regionserver/localhost/127.0.0.1:16020]regionserver.HRegionServer:errortellingmasterweareupcom.google.protobuf.ServiceExcept

Hadoop master 无法使用不同的 $HADOOP_HOME 启动 slave

在master中,$HADOOP_HOME是/home/a/hadoop,slave的$HADOOP_HOME是/home/b/hadoop在master中,当我尝试使用start-all.sh时,master名称节点成功启动,但无法启动slave的数据节点,并显示以下消息:b@192.068.0.2:bash:line0:cd:/home/b/hadoop/libexec/..:Nosuchfileordirectoryb@192.068.0.2:bash:/home/b/hadoop/bin/hadoop-daemon.sh:Nosuchfileordirectory关于如何在ma

apache-spark - 什么是 hadoop(单节点和多节点)、spark-master 和 spark-worker?

我想了解以下术语:hadoop(单节点和多节点)Spark大师星火worker名称节点数据节点到目前为止我的理解是sparkmaster是工作执行者并处理所有sparkworker。而hadoop是hdfs(我们的数据所在的地方),sparkworker根据给他们的工作从那里读取数据。如果我错了,请纠正我。我也想了解namenode和datanode的作用。虽然我知道namenode的作用(拥有所有数据节点的元数据信息,最好只有一个,但可以是两个)并且数据节点可以是多个并拥有数据。datanodes是同一个hadoop节点吗? 最佳答案

hadoop - 无法在 dse 4.5 中运行 spark master 并且缺少 slaves 文件

我在DSE4.5中有5个节点集群正在运行。5个节点中有1个节点已启用hadoop_enabled和spark_enabled,但sparkmaster未运行。ERROR[Thread-709]2014-07-0211:35:48,519ExternalLogger.java(line73)SparkMaster:Exceptioninthread"main"org.jboss.netty.channel.ChannelException:Failedtobindto:/54.xxx.xxx.xxx:7077有人对此有任何想法吗?我也尝试导出SPARK_LOCAL_IP但这也不起作用DS

hadoop - Spark over Yarn - 不正确的 Application Master 选择

我正在尝试使用以下命令在Yarn上使用Spark触发一些作业(这只是一个示例,实际上我使用的是不同数量的内存和内核):./bin/spark-submit--classorg.mypack.myapp\--masteryarn-cluster\--num-executors3\--driver-memory4g\--executor-memory2g\--executor-cores1\lib/myapp.jar\当我查看WebUI以查看幕后真正发生的事情时,我注意到YARN正在选择一个不是SparkMaster的节点作为ApplicationMaster。这是一个问题,因为真正的Sp