草庐IT

high-availability

全部标签

ios - "No Certificates are available"为解析推送通知添加 iOS 配置文件时

我正在关注thistutorial使用Parse为我的iOS应用程序设置推送通知。当我进入第2部分(涉及创建新的供应配置文件)时,我进入第6步,并看到:然而,当我查看我的证书时,我发现实际上有一个证书:我已经尝试关注其他解决此问题的stackoverflow帖子,但似乎并没有解决我的问题,这可能是因为Appe开发网站的布局似乎发生了一些变化。为什么我无法创建配置文件来设置Parse推送通知? 最佳答案 您创建的证书旨在上传到Parse网站,在您应用的设置部分。您需要创建一个单独的证书以与您的配置文件一起使用。创建一个新证书,并根据您

ios - fontWithSize(字体大小 : CGFloat) is available from which ios Version

我使用此函数更改UIButton中标签的字体大小。像这样(SWIFT):-Button!.titleLabel?.font=Button!.titleLabel?.font.fontWithSize(12)我想看看这个功能在ios7上的可用性。所以我看到了Xcode的快速帮助文档。它被称为iOS(8.0及更高版本)然后我继续在苹果网站上搜索适当的功能,但那里写着它可以从在iOS2.0和更高版本中可用。参见Here供引用。请让我知道该信任哪个。我看到了答案,但我不满意,因为我检查了其他类(class)就像NSMutableAttributedString用于swift这里写的是iOS(3

hadoop - 具有 Hadoop 高可用性的 Hive

我想了解hive如何知道哪个hadoopnamenode处于事件状态以及当事件namenode发生故障时会发生什么 最佳答案 Hive通过metatool配置为指向为HAHDFS配置的dfs.nameservices。参见https://cwiki.apache.org/confluence/display/Hive/Hive+MetaTool.dfs.nameservices是一个逻辑地址,而实际的namenodes是用dfs.ha.namenodes.[id]配置的。至于哪个Namenode处于事件状态,状态存储在Zookeep

hadoop - HDFS NFS 网关 "No groups available for user"警告

我正在使用NFS网关服务将一些数据提取到HDFS(CDH5.4.5)中。一切似乎都很好,直到我收到一条警告消息,通知我日志记录目录的可用空间非常低。我快速查看了大日志文件:sudofind/var/log-typef-size+100000k-execls-lh{}\;|awk'{print$9":"$5}'...并注意到一个名为/var/log/hadoop-hdfs/hadoop-cmf-hdfs-NAMENODE-[fqdn-of-name-node].log.out的34GB文件。快速浏览内部显示几乎完全由以下警告组成:2015-11-3013:41:15,535WARNorg

hadoop - hadoop 本身是否包含容错故障转移功能?

我刚刚安装了新版本的hadoop2,我想知道如果我配置了一个hadoop集群并启动了,我怎么知道是否数据传输失败,是否需要进行故障转移?我是否必须安装其他组件(如zookeeper)来跟踪/启用任何HA事件?谢谢! 最佳答案 默认情况下不启用高可用性。我强烈建议您阅读Apache的Hadoop文档。(http://hadoop.apache.org/)它将概述在Hadoop集群上运行的架构和服务。许多Hadoop服务都需要Zookeeper来协调它们在整个Hadoop集群中的操作,无论集群是否为HA。可以在ApacheZookeep

hadoop - Hadoop Namenode HA 和 HDFS federation 之间有什么区别

我对使用QJM和HDFS联合的HadoopNamenodeHA有点困惑。两者都使用多个名称节点并且都提供高可用性。我无法决定将哪种架构用于Namenode高可用性,因为除了QJM之外,两者看起来完全相同。如果这不是这里要讨论的问题类型,请原谅。 最佳答案 HDFSHighAvailability和HDFSFederation之间的主要区别在于,Federation中的名称节点彼此不相关。在HDFS联邦中,所有名称节点共享一个元数据池,其中每个名称节点都有自己的池,因此提供容错能力,即如果联合中的一个名称节点发生故障,它不会影响其他名

hadoop - HDFS 名称节点高可用性

我使用ambari启用了Namenode高可用性。我想在开始编码之前使用dfs.nameservices(名称服务ID)验证连接。是否有任何命令行或工具可以验证它? 最佳答案 您可以使用普通的HDFSCLI。hdfsdfs-lshdfs://nameservice/user这也应该和一样工作hdfsdfs-lshdfs:///user或者提供你的事件名称节点hdfsdfs-lshdfs://namenode-1:port/user如果你提供standbynamenode,它会说operationREADnotsupportedins

hadoop - Hortonworks 数据平台 : High load causes node restart

我已经使用HortonworksDataPlatform2.5设置了一个Hadoop集群。我正在使用1个主节点和5个从(工作)节点。每隔几天,我的一个(或多个)工作节点就会承受高负载,并且似乎会自动重启整个CentOS操作系统。重新启动后,Hadoop组件不再运行,必须通过Amabri管理UI手动重新启动。这里是“崩溃”节点的屏幕截图(大约4小时前在高负载值后重新启动):这是其他“健康”工作节点之一的屏幕截图(所有其他工作节点都具有相似的值):节点在5个工作节点之间交替崩溃,主节点似乎运行没有问题。什么会导致这个问题?这些高负载值从何而来? 最佳答案

hadoop - 如果添加到 zookeeper 的 master 之一关闭,则事件 master 不接受新申请

我在spark独立集群中启用高可用性(HA)时遇到了一个非常奇怪的问题。我已经配置了3个sparkmaster,并按照以下步骤在zookeeper中注册了它们:创建配置文件ha.conf,内容如下:spark.deploy.recoveryMode=ZOOKEEPERspark.deploy.zookeeper.url=ZK_HOST:2181spark.deploy.zookeeper.dir=/spark通过将此属性文件作为参数传递给start-master脚本来启动所有3个主控器,如下所示:./start-master.sh-hlocalhost-p17077--webui-po

hadoop - 加入 : space available is below the configured reserved amount 的配置单元查询

我在单节点集群上使用hive执行sql查询,我收到此错误:MapReduceJobsLaunched:Stage-Stage-20:HDFSRead:4456448HDFSWrite:0FAILTotalMapReduceCPUTimeSpent:0msec在日志http://localhost:50070/logs/hadoop-hadoop-namenode-hadoop.log中,可用空间似乎低于配置的保留量:org.apache.hadoop.hdfs.server.namenode.NameNodeResourceChecker:Spaceavailableonvolume'