我有一个独立的Flink安装,我想在其上运行一个将数据写入HDFS安装的流作业。HDFS安装是Cloudera部署的一部分,需要Kerberos身份验证才能读取和写入HDFS。由于我没有找到关于如何使Flink与受Kerberos保护的HDFS连接的文档,因此我不得不对该过程进行一些有根据的猜测。这是我到目前为止所做的:我为我的用户创建了一个key表文件。在我的Flink作业中,我添加了以下代码:UserGroupInformation.loginUserFromKeytab("myusername","/path/to/keytab");最后,我使用TextOutputFormat将
当我尝试使用addprinc命令在Kerberos(KadmindServer)中创建主体("prabhat/admin")时。kadmin-q"addprincprabhat/admin"我收到以下错误使用密码作为主体prabhat/admin进行身份验证。Kadmin:初始化kadmin界面时在kerberos数据库中找不到客户端 最佳答案 为了在Kadmin服务器中创建主体,首先您必须使用kadmin.local命令创建一个主体,kadmin.local-q"addprincuser1/admin"kadmin.local-q
我有一个正在运行的ApacheHadoop(1.0.4)集群。我现在正尝试通过向其添加Kerberos来实现集群的安全性。我有一个独立运行的KerberosKDC。是否有任何类型的文档可以用来将两者联系起来? 最佳答案 可以引用CDH4Securityguide了解详细步骤。 关于security-Hadoop上的Kerberos,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.com/questions/1
我正在使用CDH5。我已经设置了一个HiveMetastore来使用kerberos。即hive-site.xml具有以下属性hive.metastore.sasl.enabledtruehive.metastore.kerberos.keytab.file/etc/hive/conf/hive.keytabhive.metastore.kerberos.principalhive/hive-metastore.example.com@example.COM日志显示启动hive-metastore服务时没有错误。我正在尝试在oozie工作流中运行配置单元操作。oozie-site.xm
关闭。这个问题不符合StackOverflowguidelines.它目前不接受答案。这个问题似乎不是关于aspecificprogrammingproblem,asoftwarealgorithm,orsoftwaretoolsprimarilyusedbyprogrammers的.如果您认为这个问题是关于anotherStackExchangesite的主题,您可以发表评论,说明问题可能在哪里得到解答。关闭去年。Improvethisquestion我遇到了有关kerberos数据库连接的问题。我无法从另一个未安装kerberos的系统连接kerberos数据库。这是从未安装ker
我正在尝试使用RJDBC连接到Hive2,但失败并显示“GSS启动失败”。但是,使用直线客户端同样可以正常工作。知道在具有相同凭据的同一节点上运行时可能导致不同行为的原因是什么吗?drv以下仅用于说明目的,因为我想展示我使用的所有参数作为JDBCurl。connlog4j:WARN找不到记录器(org.apache.hive.jdbc.Utils)的附加程序。log4j:WARN请正确初始化log4j系统。log4j:警告见http://logging.apache.org/log4j/1.2/faq.html#noconfig获取更多信息。.jcall(drv@jdrv,"Ljava
我有一个CDH集群已经在使用kerberos身份验证运行。我需要将HBase服务添加到正在运行的集群。自启用kerberos以来,正在寻找启用hbase服务的文档。欢迎使用命令行和GUI选项。还有,如果有像这样的小建表步骤那样的测试方法就好了。提前致谢! 最佳答案 如果您通过ClouderaManager-AddService向导添加它,CDH会自动处理(创建/分发Kerberoskey表并添加服务) 关于hadoop-在启用kerberos的CDH集群中添加Hbase服务,我们在Sta
我正在尝试运行一个长生命周期的WebHDFS客户端(实际上是在HDFS上构建前端框架)。但是我的token一天后就会过期(这里是默认的kerberos配置),起初我尝试运行一个线程来调用userLoginInformation.currentUser().checkTGTAndReloginFromKeytab();然而,即使我看到TGT重新登录21小时,但在24小时后我的WebHDFS文件系统卡在“缓存中未找到token”(这是一个错误,意味着服务器已经删除了我的token)。查看代码@https://github.com/apache/hadoop/blob/release-2.7
我有启用了Kerberos和SSL的SOLR6集群。当我使用带有CloudSolrClient的测试客户端连接到它时,它工作正常。但是在spark作业驱动程序中运行相同的代码时,我得到以下校验和失败错误。我检查了所有提到的与校验和相关的问题,例如反向dns查找和添加javaunlimitedjar,所有yarn节点中的一切看起来都是正确的。我还可以验证它们是否正确,因为我的普通Java客户端能够从所有服务器进行查询。Causedby:org.apache.solr.client.solrj.impl.HttpSolrClient$RemoteSolrException:Errorfro
由于关键字如Kerberos"renewuntil"auto,没有找到可以解决我的问题的线程,所以在这里发帖。我创建了一个key表,其中包含以下票据生命周期信息Validstarting:09/14/201813:05:01Expires:09/15/201813:05:01renewuntil:09/19/201809:26:37基于Hadoopkerberosticketautorenew我可以毫无问题地续签延长Expires日期的票证。现在另一个问题是renewuntil设置为7天后过期。我的问题:哪个命令类似于kinit-R可以自动延长renewuntil日期,这样我就不需要重