描述:我构建了一个应用程序,它从应用了Kerberos身份验证的远程集群中获取HDFS(Hadoop分布式文件系统)文件。我可以从Eclipse执行HDFS.copyToLocalFile(path1,path2)并且它工作正常。但是当我将项目导出为可运行的jar并尝试通过命令行运行它时,它会抛出以下错误。注意:我已按照@https://sourceforge.net/p/jsch/mailman/message/26939797/中提到的步骤进行操作并成功地从Eclipse运行该项目。我已经检查了Eclipse中的其他文件,但找不到任何文件。我安装了KerberosV5MIT和Net
当我为Hive启用“自定义”身份验证时,Hue无法连接到HiveServer2。它抛出以下错误:CUSTOMserverauthenticationnotsupported.Validare['NONE','KERBEROS','PAM','NOSASL','LDAP'].如果我们使用自定义身份验证提供程序配置Hive,这是否意味着Hue不起作用?Hive本身工作正常,JDBC/ODBC使用自定义身份验证也按预期工作。有解决办法吗?引用:https://cwiki.apache.org/confluence/display/Hive/Setting+Up+HiveServer2
我有一个spark应用程序,它从Kafka读取数据并将数据写入HDFS。我的应用程序在几分钟内工作正常,但一段时间后它开始出现以下错误并失败。2018-01-0217:59:20LeaseRenewer:username@nameservicename[WARN]UserGroupInformation-PriviledgedActionExceptionas:username@REALM_NAME(auth:KERBEROS)cause:javax.security.sasl.SaslException:GSSinitiatefailed[CausedbyGSSException:N
我设置了一个运行良好的HAHadoop集群。但是添加Kerberos认证后datanode无法连接namenode。验证Namenode服务器成功启动并且没有记录错误。我用用户'hduser'启动所有服务$sudonetstat-tuplen...tcp0010.28.94.150:80190.0.0.0:*LISTEN1001202181518/javatcp0010.28.94.150:500700.0.0.0:*LISTEN1001202071447/javatcp0010.28.94.150:90000.0.0.0:*LISTEN1001202351447/java数据节点以r
我正在尝试使用以下方法在HDFS中创建文件:importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.fs.FileSystem;importorg.apache.hadoop.fs.Path;为此,我添加了如下配置:Configurationconfiguration=newConfiguration();configuration.set("fs.hdfs.impl",org.apache.hadoop.hdfs.DistributedFileSystem.class.getName());configur
我正在尝试从MacBookProOSX10.8.4访问ClouderaHadoop设置(HIVE+Impala)。我们在Linux服务器上安装了ClouderaCDH-4.3.0。我已将CDH-4.2.0tarball提取到我的MacBookPro。我已经设置了正确的配置和Kerberos凭据,以便像“hadoop-fs-ls/”这样的命令可以工作并且HIVEshell可以启动。但是,当我执行“显示数据库”命令时,出现以下错误:>hive>showdatabases;>Failedwithexceptionjava.io.IOException:java.io.IOException:
我正在使用受kerberos保护的hadoop-2.6.0和pig版本0.13.0。我在hdfs中有一个文件,如下所示计数1,ck2,secondpig脚本a=load'/user/username/newtable';b=distincta;dumpb;异常2015-02-0311:34:45,237[main]INFOorg.apache.pig.backend.hadoop.executionengine.mapReduceLayer.MapReduceLauncher-100%complete2015-02-0311:34:45,431[main]ERRORorg.apache
我正在使用hadoop-2.6.0并启用了kerberos的安全性。一切正常。但我无法从浏览器访问日志文件。它显示Problemaccessing/logs/.Reason:Userbabuisunauthorizedtoaccessthispage.我尝试了所有用户,但没有成功。谁能帮我如何授权任何用户访问日志文件? 最佳答案 您不应该直接在FS中访问日志,访问仅限于NM用户和yarn组。使用日志聚合服务检索/查看日志。参见Simplifyinguser-logsmanagementandaccessinYARN.
UserGroupInformation类有一个loginUserFromKeytab方法,该方法采用用户主体和key表文件的名称。您没有指定服务主体。我认为Kerberos需要服务主体。有人可以填补我遗漏的空白吗? 最佳答案 据我所知,“登录”方法仅负责客户端的初始用户身份验证连接到KDC断言它是“主体”,接受质询,使用加密密码进行响应(这是key表文件中的内容)检索显示为krbtgt/REALM@REALM的ticket-grantingticket(TGT)然后每个HadoopAPI管理它们自己的授权,但在服务器端客户:在连接
我想在运行时使用-DKRB5CCNAME将kerberos票证设置为java参数但它在hadoop中不起作用我正在点击下面的链接,http://www.ibm.com/support/knowledgecenter/ssw_ibm_i_72/rzaha/rzahajgssknit.htmsetjava_arguments=%JAVA_HEAP_MAX%-Dkrb5ccname=FILE:///ticketlocation%HADOOP_OPTS%-classpath%CLASSPATH%%CLASS%%hdfs-command-arguments%call%JAVA%%java_arg