草庐IT

Master-Slave

全部标签

mysql - 错误 : When running sqoop import command on master node

我已经配置了hadoop多节点集群。当我尝试在主节点中使用sqoop将表从mysql数据库导入到配置单元时,它抛出以下错误,sqoopimport--connectjdbc:mysql://master:3306/mysql--usernameroot--passwordadmin--tablepayment--hive-import----null-string'\\N'\--null-non-string'\\N'警告:/usr/lib/hcatalog不存在!HCatalog作业将失败。Pleaseset$HCAT_HOMEtotherootofyourHCataloginsta

java - ERROR [main] master.HMasterCommandLine : Master exiting java. lang.RuntimeException: Master 构建失败

尝试使用HADOOP运行HBASE时出现以下错误HBASE0.98.xHADOOP2.4.0ERROR[main]master.HMasterCommandLine:Masterexitingjava.lang.RuntimeException:FailedconstructionofMaster:classorg.apache.had$atorg.apache.hadoop.hbase.util.JVMClusterUtil.createMasterThread(JVMCl$atorg.apache.hadoop.hbase.LocalHBaseCluster.addMaster(L

hadoop - 我们必须将数据上传到哪个slave到hadoop集群

我们已经用2台机器设置了hadoop集群,我们正在尝试在我们的实时项目中实现集群,我们需要多节点集群中关于上传数据的信息,假设如果我有9个数据节点,哪个从节点我们需要上传数据。我可以选择将数据上传到2个从属节点吗,如果我将数据上传到hdfs,它是否会复制到另一个从属节点?正如我们观察到的,当前使用/tmp位置的hdfs如果/tmp已满,HDFS将使用哪个位置。 最佳答案 添加更多的集群的目的是为了扩大数据存储..您是否正在寻找安全的集群,向某些用户授予权限以将数据上传到HDFS?对If表示可以实现KERBEROS原则或者授权用户上传

hadoop - 限制 Application Master 请求的资源的属性

HadoopMRv2(Yarn)中是否有一个属性允许我们专门操纵ApplicationMaster请求的资源量(VCores和堆内存)?或者ApplicationMaster会动态评估所需的资源(基于每个应用程序)并为容器请求相应的资源? 最佳答案 以下属性可用于为YARNApplicationmaster设置VCors和HeapMemory。yarn.app.mapreduce.am.resource.mb8192yarn.app.mapreduce.am.resource.cpu-vcores1yarn.app.mapreduc

hadoop nodemanager 未启动,slave 不满足最小分配

当运行start-all.sh我的slave1和slave2在jps中找不到nodemanager使用VMvirtualbox在Ubuntu16.04上工作主人yunchi@master:~$jps15920Jps15505SecondaryNameNode15659ResourceManager15293NameNode奴隶1yunchi@slave1:~$jps7587DataNode7945Jps奴隶2yunchi@slave2:~$jps7138DataNode7374Jps这是我的nodemanager-slave1.log2017-10-1217:26:59,662错误or

hadoop - 如果添加到 zookeeper 的 master 之一关闭,则事件 master 不接受新申请

我在spark独立集群中启用高可用性(HA)时遇到了一个非常奇怪的问题。我已经配置了3个sparkmaster,并按照以下步骤在zookeeper中注册了它们:创建配置文件ha.conf,内容如下:spark.deploy.recoveryMode=ZOOKEEPERspark.deploy.zookeeper.url=ZK_HOST:2181spark.deploy.zookeeper.dir=/spark通过将此属性文件作为参数传递给start-master脚本来启动所有3个主控器,如下所示:./start-master.sh-hlocalhost-p17077--webui-po

apache - Hbase Master 和 Region 服务器无法启动

Hadoop在分布式模式下成功运行。在分布式模式下启动HBase时出现以下错误。尝试了hbase-site.xml配置中的所有内容。不知道如何处理这个问题?014-03-1013:55:42,493INFOorg.apache.zookeeper.ClientCnxn:Openingsocketconnectiontoserverip-112-11-1-111.ec2.internal/112.11.1.111:2181.WillnotattempttoauthenticateusingSASL(Unabletolocatealoginconfiguration)2014-03-101

java - 如何处理 master actor 故障

我是Akka的新手,我构建了一个连接到HDFS的Akka模型,提取数据,对其进行处理并将处理后的数据写回HDFS。现在,如果我的masteractor崩溃了,那么相应的子actor(Workers)也会崩溃,整个系统必须重新启动。因此,如果有一个创建辅助主控的进程,一旦主主控发生故障且恢复时间最短,它会自动开始运行。我无法围绕这个画出清晰的画面。我们将不胜感激。谢谢 最佳答案 来自docs:/user:TheGuardianActorTheactorwhichisprobablymostinteractedwithisthepare

java - slave VM 从 slaves 列表中删除,并且仍然被 Yarn/Tez 访问

所以我从从属虚拟机列表中删除了vm4,当我运行以下命令时它不会访问它hdfsdfsadmin-report结果是:ubuntu@anmol-vm1-new:~$hdfsdfsadmin-report15/12/1406:56:12WARNutil.NativeCodeLoader:Unabletoloadnative-hadooplibraryforyourplatform...usingbuiltin-javaclasseswhereapplicableConfiguredCapacity:1268169326592(1.15TB)PresentCapacity:1199270457

scala - Tachyon on Dataproc Master 复制错误

我有一个在安装了Tachyon、Spark和Hadoop的Dataproc主节点上运行的简单示例。我在从Spark写入Tachyon时遇到复制错误。有没有办法指定它不需要复制?15/10/1708:45:21WARNorg.apache.hadoop.hdfs.DFSClient:DataStreamerExceptionorg.apache.hadoop.ipc.RemoteException(java.io.IOException):File/tmp/tachyon/workers/1445071000001/3/8couldonlybereplicatedto0nodesinst