草庐IT

master-data-management

全部标签

解决Hbase报错:ERROR: Can‘t get master address from ZooKeeper; znode data == null

文章目录问题描述解决方案问题描述报错了:这啥公司啊,怎么给的文档怎么错这么多,起一服务,集群里总有几个组件报错继上次Flume脚本,使用hdfssink报错了以后,hbase又报错了,报错提示如下:hbase(main):001:0>listTABLEERROR:Can'tgetmasteraddressfromZooKeeper;znodedata==nullHereissomehelpforthiscommand:Listalltablesinhbase.Optionalregularexpressionparametercouldbeusedtofiltertheoutput.Examp

r - as(x, class(k)) 错误 : no method or default for coercing “NULL” to “data.frame”

我目前正面临下面提到的错误,该错误与将NULL值强制转换为数据框有关。数据集确实包含空值,但是我尝试了is.na()和is.null()函数来用其他值替换空值。数据存储在hdfs上,以pig.hive格式存储。我还附上了下面的代码。如果我从key中删除v[,25],代码可以正常工作。代码:AM=c("AN");UK=c("PP");sample.map错误:WarninginasMethod(object):NAsintroducedbycoercionWarninginsplit.default(1:rmr.length(y),unique(ind),drop=TRUE):datal

hadoop - Hbase master 启动失败异常Java.Lang.NoSuchMethodException

我正在关注LarsGeorgeHbase权威指南。我正在我的MountainLionMacbookpro上设置一个伪分布式集群。我下载了Hadoop存档0.20.205.0,解压缩并做了一些小改动dfs.replication=1和其他人。当我在hbase-site.xml中进行更改以指定localhosthdfsnamenode时hbase.rootdir=hdfs://localhost:9000/hbase还有一些其他属性,比如zookeeperquorum,zookeeperdataDir,isDistributed=true等等。然而,在运行时bin/start-hbase.

hadoop - 使用 Kerberos 访问 Cloudera Hadoop 会出现 TokenCache 错误 : Can't get Master Kerberos principal for use as renewer

我正在尝试从MacBookProOSX10.8.4访问ClouderaHadoop设置(HIVE+Impala)。我们在Linux服务器上安装了ClouderaCDH-4.3.0。我已将CDH-4.2.0tarball提取到我的MacBookPro。我已经设置了正确的配置和Kerberos凭据,以便像“hadoop-fs-ls/”这样的命令可以工作并且HIVEshell可以启动。但是,当我执行“显示数据库”命令时,出现以下错误:>hive>showdatabases;>Failedwithexceptionjava.io.IOException:java.io.IOException:

jdbc - 使用CDH4+Cloudera Manager时JDBC驱动放在哪里?

我试图让Sqoop2(CDH4.4.0)识别JDBCjar,但无论我把它们放在哪里,它们似乎都没有被识别。我听从了建议:here,here,并问了一个类似的问题here.有人可以对此提供明确的答案吗? 最佳答案 我强烈建议您遵循Hadoop发行版及其相关版本的官方安装指南。看来您使用的是CDH4.4.0,但正在查看CDH4.2.1安装说明。而在CDH4.2.1中,JDBC驱动程序jar文件应在/usr/lib/sqoop2中,自CDH4.3.0起,它们应在/var/lib/sqoop2中(documentation)。

hadoop - Cloudera Manager CDH Parcel 分发错误

我正在尝试使用CentOS6机器在Rackspace云上安装Hadoop集群。从cloudera管理器创建新集群时出现以下错误。有人可以帮忙吗。集群安装安装选定的包裹正在将选定的包裹下载并安装到集群中的所有主机上。CDH5.3.2-1.cdh5.3.2.p0.103个错误Errorwhendistributingtovm-cdh-cluster-3:[Errnosocketerror][Errno-2]Nameorservicenotknown.Errorwhendistributingtovm-cdh-cluster-1:[Errnosocketerror][Errno-2]Name

git 提交 报 error Unexpected mutation of “data“ prop vue/no-mutating-props

errorUnexpectedmutationof"data"propvue/no-mutating-props一般情况下出现此报错是修改了父组件的值即--对prop的内容进行了修改但是我的代码并没有直接对prop进行修改但是还是报当前错误报错代码片原代码片修改代码片可以看到我把其中Props下的data改为了info再次提交就可以了!问题应该出在ESLint检测命名上一般情况下出现此报错是修改了父组件的值即–对prop的内容进行了修改但是我的代码并没有直接对prop进行修改但是还是报当前错误报错代码片git报错代码片.//Anhighlightedblock15:30errorUnexpec

azure - Azure Data Lake 中压缩编解码器的影响

很明显,有据可查的是,拆分zip文件的能力对Hadoop中作业的性能和并行化有很大影响。但是Azure是建立在Hadoop之上的,而且我在Microsoft文档中找不到的任何地方都没有提到这种影响。这不是ADL的问题吗?例如,GZip大文件现在是一种可接受的方法,还是我会遇到同样的问题,即由于压缩编解码器的选择而无法并行处理我的作业?谢谢 最佳答案 请注意,AzureDataLakeAnalytics不基于Hadoop。RojoSam是正确的,GZip是一种不好的并行化压缩格式。U-SQL会自动识别.gz文件并解压缩它们。但是,压缩

java - Flink 中名为 "conf/masters"的文件有什么用?

既然我们可以通过“flink-conf.yaml”中的“jobmanager.rpc.address”来指定master,那么“conf/masters”这个文件有什么用呢? 最佳答案 用于以HA模式启动独立集群。更多可以查看here 关于java-Flink中名为"conf/masters"的文件有什么用?,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.com/questions/45477252/

java.lang.ClassNotFoundException : org. openx.data.jsonserde.JsonSerDe 错误

我正在尝试使用iPython从Hive查询表。下面是我的代码的样子。sqlc=HiveContext(sc)sqlc.sql("ADDJARs3://x/y/z/jsonserde.jar")我首先创建一个新的配置单元上下文,然后尝试添加上面的jar。以下是我收到的错误消息。Py4JJavaError:Anerroroccurredwhilecallingo63.sql:java.lang.ClassNotFoundException:org.openx.data.jsonserde.JsonSerDe我还可以如何将此jar添加到Spark类路径? 最佳答案