草庐IT

Telegram-master

全部标签

hadoop - 无法启动master和slave,日志中出现名为 "bogon"的奇怪东西

我下载了一个新的预构建sparkforhadoop2.2文件。正在关注this文件,我想在我的单机上启动我的主人。解压文件后,我进入sbin和start-master,但我遇到了这个奇怪的问题,这是日志:SparkCommand:/Library/Java/JavaVirtualMachines/jdk1.7.0_55.jdk/Contents/Home/bin/java-cp:/opt/spark-0.9.0-incubating-bin-hadoop2/conf:/opt/spark-0.9.0-incubating-bin-hadoop2/assembly/target/scal

hadoop - 空闲的 hadoop master - 如何让它做一些工作?

我启动了一个由两个节点组成的小型集群,并注意到主节点完全空闲,而从节点完成所有工作。我想知道让master运行一些任务的方法是什么。我知道对于一个更大的集群来说,拥有一个专用的主节点可能是必要的,但在一个2节点的集群上,这似乎有点矫枉过正。感谢您的任何提示,瓦茨拉夫更多细节:这两个盒子各有2个CPU。集群已在AmazonElasticMapReduce上设置,但我正在从命令行运行hadoop。我刚刚试过的集群有:Hadoop0.18javaversion"1.6.0_12"Java(TM)SERuntimeEnvironment(build1.6.0_12-b04)JavaHotSpo

hadoop - HBase 区域服务器 : error telling master we are up

我在从属RegionServer的日志中收到以下错误。问题似乎出在regionserver.HRegionServer:reportForDutytomaster=localhost,60000,1397430611631withport=60020master设置为localhost但实际上应该指向master。即使在阅读了文档之后,我也无法弄清楚奴隶是如何弄清楚主人的。完整日志为:2014-04-1404:49:35,939INFO[regionserver60020]regionserver.HRegionServer:CompactionCheckerrunsevery10se

hadoop - hbase.master 与使用 Java API 的 HBase 连接中的 zookeeper 详细信息

两者都有什么好处hbase.masterhbase.zookeeper.quorum&hbase.zookeeper.property.clientPort使用JavaAPI创建与HBase的连接?示例代码:ConfigurationhBaseConfig=HBaseConfiguration.create();hBaseConfig.set("hbase.master",hbaseHost+":"+port);hBaseConfig.set("hbase.zookeeper.quorum",zookeeperHost);hBaseConfig.set("hbase.zookeeper

java - 在 master :8088 中找到 hadoop 2.7.2 中每个任务的容器

在hadoop2.7.2上用两个slave跑完一个job后,我想知道每个tasks的容器。在master:8088我们可以看到最大和最小分配。当我点击applicatio....004时,它显示了这张图片,其中显示了memmory0和vcore0。我想知道如何找到容器的属性。 最佳答案 由于您的应用程序已完成,上面的第二个屏幕显示了聚合资源分配。要在运行时查看容器状态,请在“URL:8042/node/allContainers”打开Web浏览器,其中URL是集群的公共(public)DNS。您将看到所有正在运行的应用程序的容器。单

hadoop - thrift 在我的 HBase master 上运行吗?如何与Happybase连接?

我正在以伪分布式模式运行krejcmat/hadoop-hbasedocker。那就是主从在同一台机器上的不同容器中运行。启动Hadoop集群和HBase后,我在主节点上启动thrift服务器:hbasethriftstart-threadpool我还公开了节点9090(以--expose=9090开头的默认Thrift端口)。我想使用Happybase库通过ThriftAPI从我的主机连接到Hadoop集群中运行的Hbase。这是我使用的命令:connection=happybase.Connection('hadoop-hbase-master',9090)但我收到错误:TTran

hadoop - 从 spark master UI 清除 Spark Job 历史记录

我正在处理spark,我想通过清除所有以前失败/完成的作业来清除我的sparkmasterUI。我不知道该怎么做?我试过从hdfs中删除日志,但作业条目仍然显示在UI上。 最佳答案 您需要重新启动masterspark进程。来自spark的sbin目录,运行./stop-master.sh和./start-master.sh它应该修复。 关于hadoop-从sparkmasterUI清除SparkJob历史记录,我们在StackOverflow上找到一个类似的问题:

java - SIMPLE 身份验证未启用。可用 :[TOKEN, KERBEROS] -Hbase Master 无法激活

我正在尝试设置一个具有3个节点的HBase集群。我已经尝试配置SecureHbase一周了,但我仍然遇到错误:ERROR[Thread-15]master.HMaster:Failedtobecomeactivemasterorg.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.AccessControlException):SIMPLEauthenticationisnotenabled.Available:[TOKEN,KERBEROS]我正在运行Hbase2.0.5和Hadoop3.1.2。Secureha

hadoop - Hbase 0.20.6 无法启动master异常

我在上使用Hbase0.20.6和Hadoop0.21.0>Ubuntu10.04LTS并且出现无法启动主错误。(错误附加在hbase-root-master-ubuntu.log文件的帖子末尾)Hbase0.20.6可以与Hadoop0.21.0一起正常工作吗??如果不是,是否有变通办法??问题根源是什么??感谢您的时间和考虑。日志:java.io.IOException:Calltolocalhost/127.0.0.1:54310failedonlocalexception:java.io.EOFExceptionatorg.apache.hadoop.ipc.Client.wr

apache - HBase master 无法启动,无法连接到 hbase.rootdir

我正在尝试根据apache网站上的设置以伪分布式模式运行HBase,但我无法正确配置hbase.root目录。这是我的配置文件的样子:在Hadoop目录中:conf/core-site.xml:fs.default.namehdfs://localhost:9000dfs.replication1mapred.job.trackerlocalhost:9001conf/hdfs-site.xml:dfs.replication1dfs.support.appendtruedfs.datanode.max.xcievers4096conf/mapred-site.xml:mapred.j