草庐IT

secure-transport

全部标签

security - Hadoop 无法访问/logs/。在安全模式

我正在使用hadoop-2.6.0并启用了kerberos的安全性。一切正常。但我无法从浏览器访问日志文件。它显示Problemaccessing/logs/.Reason:Userbabuisunauthorizedtoaccessthispage.我尝试了所有用户,但没有成功。谁能帮我如何授权任何用户访问日志文件? 最佳答案 您不应该直接在FS中访问日志,访问仅限于NM用户和yarn组。使用日志聚合服务检索/查看日志。参见Simplifyinguser-logsmanagementandaccessinYARN.

java - HBase on Tomcat7 安装错误: Could not initialize class org. apache.hadoop.security.ShellBasedUnixGroupsMapping

我正在尝试通过tomcatservlet访问AWSEMR主节点上的HBase。我在tomcatservletget请求上有这段代码:Configurationconf=HBaseConfiguration.create();conf.setInt("timeout",120000);conf.set("hbase.master","*"+hbaseHost+":9000*");conf.set(HBASE_CONFIGURATION_ZOOKEEPER_QUORUM,hbaseZookeeperQuorum);conf.set(HBASE_CONFIGURATION_ZOOKEEPER

hadoop - 元数据错误 : org. apache.thrift.transport.TTransportException

这个错误是什么意思?“元数据错误:org.apache.thrift.transport.TTransportException?”在什么情况下会出现此错误?我在创建表和将数据加载到表中时遇到此错误。 最佳答案 org.apache.thrift.transport.TTransportException,这是一个非常普遍的错误,该消息描述了hiveserver有问题并建议您查看Hive日志。如果您能够访问完整的日志堆栈并共享确切的详细信息,则可能会找到此问题的真正原因。大多数时候,我遇到这个错误就像配置单元元数据问题、无法访问配置

security - 在 HDFS 中创建一次写入文件

我有一个正在努力解决的要求。我的目标是创建一个在后台自动捕获的用户进程和命令的历史文件,创建一个实时存档到Hadoop的历史文件。日志系统连接终止后,用户不应编辑或删除该文件。我当前的结构将我的日志系统通过管道传输到hadoopfs-put-命令。问题是创建的文件归用户所有,使他们能够删除该文件。有没有办法让目录级别的执行权限覆盖HDFS中的用户所有权权限?还有另一种方法可以解决这个问题吗? 最佳答案 我不确定,您是在寻找hdfs-chmod还是-chown命令? 关于security-

security - 在 CentOS 6 上配置 Kerberos 时出错

在CentOS6上运行的私有(private)服务器上配置Kerberos后,当我运行kinit时出现此错误,我得到以下响应:kinit:RealmnotlocaltoKDCwhilegettinginitialcredentials这是我的配置文件的副本:[logging]default=FILE:/var/log/krb5libs.logkdc=FILE:/var/log/krb5kdc.logadmin_server=FILE:/var/log/kadmind.log[libdefaults]dns_lookup_realm=truedns_lookup_kdc=truetick

security - 是否有与 Accumulo 的授权类等效的 HBase 1.2?

在Accumulo1.6中,有一个org.apache.accumulo.core.security.Authorizations类(class)。它基本上包装了一组授权字符串。Authorizations对象可以传递给如下方法:org.apache.accumulo.core.client.Connector.createScanner(字符串,授权)org.apache.accumulo.core.client.Connector.createBatchDeleter(String,Authorizations,int,BatchWriterConfig)HBase1.2有类似的概

security - 启用安全性 PriviledgedActionException (auth :KERBEROS)) 后 Hadoop 服务未启动

我有一个版本5的Cloudera集群启用Hadoop安全后我遇到了一个问题Hadoop服务没有启动。我在YARN上遇到错误:PriviledgedActionExceptionas:mapred/cdh4hdm@IMP.CO.IN(auth:KERBEROS)cause:java.io.IOException:Couldn'tsetupconnectionformapred/cdh4hdm@IMP.CO.INtocdh4hdm/172.26.43.40:80203:23:49.298PMINFOorg.apache.hadoop.service.AbstractServiceServi

hadoop - java.io.IOException : org. apache.hadoop.security.AccessControlException : Client cannot authenticate via:[TOKEN, KERBEROS]

我的配置如下:运行Spark1.2.0,Hadoop2.5.0/YARN,ClouderaCDH5VMCentos6.2运行Windows64位平台8GBRAM下面是从spark-shell运行的命令序列,但在尝试打印custRDD时,我收到Kerberos身份验证错误。我已经从cloudera用户登录到spark-shell,ClouderaVM是Kerberos认证的,默认主体是cloudera@HADOOP.LOCALDOMAIN对于正常的RDD操作,有什么方法可以从spark-shell验证Kerberos吗?或者我遗漏了什么?感谢任何正当的帮助,将得到返回下面是SparkSh

java - 信息 : Transport Used for JDBC connection: null + Apache Hive

我正在尝试通过JDBC连接ApacheHive和eclipse,但出现以下错误。以下是版本信息:ApacheHadoop:2.7.1,Hive:1.2.1和EclipseKepler。****Error:****Dec29,20156:04:00PMorg.apache.hive.jdbc.UtilsparseURLINFO:Suppliedauthorities:localhost:10000Dec29,20156:04:00PMorg.apache.hive.jdbc.UtilsparseURLINFO:Resolvedauthority:localhost:10000Dec29,

httpfirewall阻塞的UrlenCodedSlash(Grails 3.3.0.rc1; Spring-Security-Core 3.2.0.m1)

我在日志中发现了这个错误:org.springframework.security.web.firewall.RequestRejectedException:TherequestURIcannotcontainencodedslash.Got/;lm=1488887514;m=js;asset=delayedElements%2Fsnippet;tf;ucm=353df4434086482d9d1d7b89758e156e/atorg.springframework.security.web.firewall.DefaultHttpFirewall.getFirewalledRequest(