我尝试使用ambari_setup.sh在3节点集群上安装Hadoop。我已经在NODE_1上成功启动了ambari-server,并且ambari-agent正在所有3个节点上运行。我还使用以下方法推送了蓝图:root@hostcurl-H"X-Requested-By:ambari"-XPOST-d@blueprint.json-uadmin:adminHOST_NAME:8080/api/v1/blueprints/blueprints-c1但是在使用下面给出的命令安装时,我得到了下面给出的错误。[root@host]#curl-H"X-Requested-By:ambari"-
我想知道如何在没有Ambari的情况下找到我的Hadoop集群上最后一天消耗的CPU,因为我需要使用Shell脚本。我已经启动并运行了ganglia,我可以在Ambari上看到CPU最后一天的图表。如果ganglia可以给你这个结果,我想它把数据保存在某个地方了?什么文件?我怎样才能得到它? 最佳答案 这里已经回答了这个问题Howtogetdatafromganglia'sdatabase总结上面的答案gangliaRRD位置在/var/lib/ganglia/rrds要将特定的RRD文件转储为纯文本,请使用“rrdtool”命令以
如何检查Ambari中给定节点的容器数量?如果在Ambari中不可能,是否有任何命令列出给定节点的所有运行/保留节点? 最佳答案 我自己想通了。以下命令返回集群中所有节点的列表以及在其上运行的容器数量:-yarnnode--list 关于hadoop-如何检查Ambari中给定节点的容器数量?,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.com/questions/38287899/
尝试将数据从postgres导入MicrosoftAzureHDInsigt上的hdfs。如果列出dbs,现在我从一个非常简单的命令开始sqooplist-databases--connectjdbc.postgresql://xx.xxx.xxx.xxx:yyyy--usernamemyuser--passwordmypassword我得到以下错误ERRORtool.BaseSqoopTool:Goterrorcreatingdatabasemanager:java.io.IOException:Nomanagerforconnectstring:jdbc.postgresql://
我正在尝试在单个节点上配置ambari。我在确认主机阶段。它显示安装时间超过30分钟。我在虚拟盒子(RAM=4GB)上运行Ubuntu14.0464位。这正常吗? 最佳答案 注册一个主机不应该花30分钟。如果您单击状态栏下的Installing链接,它将深入查看注册正在执行的日志。这可能会提供有关注册过程出了什么问题的更多详细信息。 关于hadoop-无法将Ambari安装为集群,我们在StackOverflow上找到一个类似的问题: https://stac
我正在尝试在单节点集群上设置Ambari。Ambari设置以root用户身份完成我尝试了所有与此相关的帖子,更改了权限并设置为权限http://docs.hortonworks.com/HDPDocuments/Ambari-2.1.2.1/bk_Installing_HDP_AMB/content/_set_up_password-less_ssh.htmlcd~/.sshrm-rf/root/.sshssh-keygen-tdsacat/root/.ssh/id_dsa.pub>>/root/.ssh/authorized_keyscat/root/.ssh/authorized_
我在设置ambari时遇到以下错误:ERROR:Exitingwithexitcode-1.REASON:BeforestartingAmbariServer,youmustcopytheOracleJDBCdriverJARfileto/usr/share/java.我已将jdbc-oracle.jar文件放到/usr/share/java位置,但仍然出现此错误。请指导我如何解决此问题并继续为我的hadoop单节点集群设置Ambari并在其上运行一些服务(例如spark)。 最佳答案 从Ambari源代码中,Oraclejdbc驱
我需要文件hdfs-site.xml和core-site.xml可以通过url访问,因为我正在安装的服务需要在安装时检索这些文件。我正在使用Ambari来管理我的hdfs和我的hadoop/堆栈。 最佳答案 看起来Ambari本身没有能力直接这样做。下载配置的一种方法是使用“服务操作”下的“下载客户端配置”菜单选项,它会为您提供配置,但在必须解压缩的tar.gz存档中。API调用的例子是:http://c6401:8080/api/v1/clusters/cl1/services/HDFS/components/HDFS_CLIEN
我通过Ambari(HDP-2.6.2.0)设置了Hadoop/Spark集群。现在我的集群正在运行,我想向其中输入一些数据。我们内部有一个Elasticsearch集群(5.6版)。我想设置Elastic提供的ES-Hadoop连接器(https://www.elastic.co/guide/en/elasticsearch/hadoop/current/doc-sections.html),这样我就可以将一些数据从Elastic转储到HDFS。我用JARS抓取了ZIP文件,并按照CERN博客文章中的说明进行操作:https://db-blog.web.cern.ch/blog/pr
我们有ambari集群版本-2.6.1和hadoop版本2.6.4数据节点的数量是-10从ambari仪表板我们可以看到显示以下内容的窗口:DataNodesLive9/10但几分钟后所有数据节点都还活着:DataNodesLive10/10几分钟后我们又见面了DataNodesLive9/10似乎namenode已经超过interval没有收到来自datanode的心跳消息,然后datanode将被标记为“已死”我们检查以下内容:主机解析-OK(DNSOK)IP的解析是-好的(DNS是好的)HDFS服务校验成功每个数据节点都已启动(ps-ef|grepdatanode|grep-vg