草庐IT

mit-kerberos

全部标签

java - Java中的简单Kerberos客户端?

Google的Chrome和IE等应用程序可以透明地处理Kerberos身份验证;但是我找不到与这种透明度相匹配的“简单”Java解决方案。我发现的所有解决方案都需要存在krb5.conf文件和login.conf文件,上述应用似乎都不需要。构建具有KerberosSSO功能的Java应用程序的最佳方法是什么?[更新]:需要明确的是,我需要一个CLIENT方解决方案来创建票证而不是验证票证。此外,似乎SPNEGO是默认的“包装器”协议(protocol),最终将委托(delegate)给Kerberos,但我也需要能够处理SPNEGO协议(protocol)。

Kerberos (四) --------- 安全集群使用说明

目录一、用户要求二、访问HDFS集群文件1.Shell命令2.web页面三、提交MapReduce任务一、用户要求1.具体要求以下使用说明均基于普通用户,安全集群对用户有以下要求:集群中的每个节点都需要创建该用户该用户需要属于hadoop用户组需要创建该用户对应的Kerberos主体2.实操此处以fancy用户为例,具体操作如下创建用户(存在可跳过),须在所有节点执行[root@hadoop102~]#useraddfancy[root@hadoop102~]#echofancy|passwd--stdinfancy[root@hadoop103~]#useraddfancy[root@had

linux - 来自虚拟机 (Ubuntu) 的 Kerberos 身份验证

我的公司给了我一台Windows7电脑,但我更喜欢在运行Ubuntu16.04的虚拟机中工作。为什么我的虚拟Ubuntu机器不使用Kerberos进行身份验证,它们确实具有相同的IP地址,但显然还缺少更多内容。我的问题是缺少什么,以及如何修复它? 最佳答案 Kerberos不适用于IP地址,它仅依赖于域名和正确的DNS条目。看到这个标记为answer关于这个话题。您也不能在客户端、服务器和KDC都运行在samemachine上的情况下执行Kerberos身份验证方案.这有一些已知问题。

hadoop - Hadoop Oozie shell 操作中的 kerberos 票证和委托(delegate) token 使用

我是hadoop的新手,我试图理解为什么即使在执行kinit后我的oozieshell操作也没有接受新票证。这是我的场景。我使用我的ID“A”登录,并为我的ID准备了一张kerberos票证。我使用我的ID提交带有shell操作的oozieworklow。在oozieshell操作中,我执行另一个kinit以获得ID“B”的票证。只有这个id“B”可以访问一些HDFS文件。kinit工作正常,因为klist显示了ID“B”的票证。现在,当我读取只有B有权访问的HDFS文件时,我收到权限被拒绝的错误消息,提示“A”无权访问该文件。但是当我在oozie之外的linuxcli上做同样的事情时

java - Kerberos Java 凭据缓存

我正在运行以下代码来与启用了kerberos的hadoop集群进行交互。valt1=newThread(){overridedefrun(){println("outputoffirstthread")valconf=newConfigurationconf.set("hadoop.security.authentication","Kerberos")conf.set("fs.defaultFS","hdfs://192.168.23.206:8020")UserGroupInformation.setConfiguration(conf)UserGroupInformation.l

r - 如何使用 Kerberos keytab 通过 R 连接 HIVE?

我正在尝试通过R远程连接到Hive服务器,并使用Kerberoskey表文件执行身份验证。Errorin.jcall("RJavaTools","Ljava/lang/Object;","invokeMethod",cl,:java.io.IOException:Loginfailureforantonio.silva@HADOOPREALM.LOCALfromkeytabC:/Users/antonio.silva/Desktop/jars/antonio.silva.keytab:javax.security.auth.login.LoginException:null(68)但是

hadoop - 从远程服务器访问 hdfs 时,Kerberos 默认为错误的主体

我已将kerberos配置为从远程服务器访问hdfs,并且我能够进行身份验证并生成票证,但是当我尝试访问hdfs我收到一个错误:09/0215:50:02WARNipc.Client:Exceptionencounteredwhileconnectingtotheserver:java.lang.IllegalArgumentException:ServerhasinvalidKerberosprincipal:nn/hdp.stack.com@GLOBAL.STACK.COM在我们的krb5.conf文件中,我们在不同的域下定义了admin_server和kdc:DEV.STACK.

hadoop - Kerberos Auth 后 Datanode 未在 Hadoop 中启动

我已授予/app/hadoop/tmp/dfs/data权限。WARNorg.apache.hadoop.hdfs.server.datanode.DataNode:Invaliddfs.datanode.data.dir/app/hadoop/tmp/dfs/data:EPERM:Operationnotpermittedatorg.apache.hadoop.io.nativeio.NativeIO$POSIX.chmodImpl(NativeMethod)atorg.apache.hadoop.io.nativeio.NativeIO$POSIX.chmod(NativeIO.j

java - 使用 JDBC 和 Kerberos 身份验证连接到 Hive 时出现异常

我正在尝试使用Java中的JDBC和Kerberos身份验证连接到Hive。为此,我想出了以下代码。importjava.io.IOException;importjava.sql.Connection;importjava.sql.DriverManager;importjava.sql.SQLException;importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.security.UserGroupInformation;publicclassDbManager{privatestaticConnec

hadoop - Kerberos 如何处理同一节点中针对同一服务和同一客户端的多个 TGT 请求?

根据我对Kerberos架构的理解,客户端需要从身份验证服务器获取特定的Ticket-Granting-Ticket(TGT)才能与服务交互。这些TGT包含:客户编号客户端网络地址门票有效期客户端/TGSsessionkey。我从here得到这个假设我有一个主工作流,其中包含:pig、hive和spark文件我将需要三个不同的TGT,每个服务一个,才能成功使用它们。TGT中的一个元素是票证有效期。让我们假设这被设置为8小时。据我了解,如果主工作流需要,比方说,10小时才能完成,它可能会在第8小时后失败,因为票证的有效期将结束。因此,据我所知,有必要每8小时刷新一次此TGT,以便与服务顺