草庐IT

master_table

全部标签

hadoop - 使用 Kerberos 访问 Cloudera Hadoop 会出现 TokenCache 错误 : Can't get Master Kerberos principal for use as renewer

我正在尝试从MacBookProOSX10.8.4访问ClouderaHadoop设置(HIVE+Impala)。我们在Linux服务器上安装了ClouderaCDH-4.3.0。我已将CDH-4.2.0tarball提取到我的MacBookPro。我已经设置了正确的配置和Kerberos凭据,以便像“hadoop-fs-ls/”这样的命令可以工作并且HIVEshell可以启动。但是,当我执行“显示数据库”命令时,出现以下错误:>hive>showdatabases;>Failedwithexceptionjava.io.IOException:java.io.IOException:

hadoop - 执行以下 Hive 查询 : SELECT COUNT(*) FROM TABLE; for a table with 8bn rows/40 columns/400Gb? 的大概数字是多少

执行以下Hive查询的大概数字是多少:SELECTCOUNT(*)FROMTABLE;对于下表:行数:~80亿列数:40,各种大小的int、double和stringHDFS上的大小:~400Gb我想将任何大概数字与真实数字进行比较,以查看系统配置是否正确。如果我错过了一些重要的事情,我深表歉意,我是Hive和Hadoop的新手。此外,如果机器数量也按比例增加,执行时间是否会与行数成线性比例? 最佳答案 提供大概数字是不可能的。但是我们可以列出影响因素:集群中配置的MapTask数量block大小(决定将使用的映射器的数量)执行时间

java - Flink 中名为 "conf/masters"的文件有什么用?

既然我们可以通过“flink-conf.yaml”中的“jobmanager.rpc.address”来指定master,那么“conf/masters”这个文件有什么用呢? 最佳答案 用于以HA模式启动独立集群。更多可以查看here 关于java-Flink中名为"conf/masters"的文件有什么用?,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.com/questions/45477252/

hadoop - 配置单元 : getting parseexception in simple create external table query

我已经在mac上设置了hive。在执行简单的创建外部表查询时。我正在跟踪堆栈跟踪:hive>CREATEEXTERNALTABLEweatherext(wbanINT,dateSTRING)>ROWFORMATDELIMITED>FIELDSTERMINATEDBY‘,’>LOCATION‘/hive/data/weatherext’;NoViableAltException(80@[])atorg.apache.hadoop.hive.ql.parse.HiveParser.columnNameTypeOrPKOrFK(HiveParser.java:33341)atorg.apac

mysql - 错误 : When running sqoop import command on master node

我已经配置了hadoop多节点集群。当我尝试在主节点中使用sqoop将表从mysql数据库导入到配置单元时,它抛出以下错误,sqoopimport--connectjdbc:mysql://master:3306/mysql--usernameroot--passwordadmin--tablepayment--hive-import----null-string'\\N'\--null-non-string'\\N'警告:/usr/lib/hcatalog不存在!HCatalog作业将失败。Pleaseset$HCAT_HOMEtotherootofyourHCataloginsta

【flink番外篇】9、Flink Table API 支持的操作示例(1)-完整版

Flink系列文章一、Flink专栏Flink专栏系统介绍某一知识点,并辅以具体的示例进行说明。1、Flink部署系列本部分介绍Flink的部署、配置相关基础内容。2、Flink基础系列本部分介绍Flink的基础部分,比如术语、架构、编程模型、编程指南、基本的datastreamapi用法、四大基石等内容。3、FlikTableAPI和SQL基础系列本部分介绍FlinkTableApi和SQL的基本用法,比如TableAPI和SQL创建库、表用法、查询、窗口函数、catalog等等内容。4、FlikTableAPI和SQL提高与应用系列本部分是tableapi和sql的应用部分,和实际的生产应

java - ERROR [main] master.HMasterCommandLine : Master exiting java. lang.RuntimeException: Master 构建失败

尝试使用HADOOP运行HBASE时出现以下错误HBASE0.98.xHADOOP2.4.0ERROR[main]master.HMasterCommandLine:Masterexitingjava.lang.RuntimeException:FailedconstructionofMaster:classorg.apache.had$atorg.apache.hadoop.hbase.util.JVMClusterUtil.createMasterThread(JVMCl$atorg.apache.hadoop.hbase.LocalHBaseCluster.addMaster(L

hadoop - 限制 Application Master 请求的资源的属性

HadoopMRv2(Yarn)中是否有一个属性允许我们专门操纵ApplicationMaster请求的资源量(VCores和堆内存)?或者ApplicationMaster会动态评估所需的资源(基于每个应用程序)并为容器请求相应的资源? 最佳答案 以下属性可用于为YARNApplicationmaster设置VCors和HeapMemory。yarn.app.mapreduce.am.resource.mb8192yarn.app.mapreduce.am.resource.cpu-vcores1yarn.app.mapreduc

hadoop - ALTER TABLE (Hive) 中的动态数据

我的查询出现错误,我不完全确定原因:ALTERTABLErevenueADDPARTITION(ds=from_unixtime(unix_timestamp(),'yyyy-MM-dd'))LOCATIONCONCAT('s3://userenroll-analytics/prod/revenue/avro/',from_unixtime(unix_timestamp(),'yyyy/MM/dd'))错误:Errorwhilecompilingstatement:FAILED:ParseExceptionline1:38cannotrecognizeinputnear'from_un

hadoop - 如果添加到 zookeeper 的 master 之一关闭,则事件 master 不接受新申请

我在spark独立集群中启用高可用性(HA)时遇到了一个非常奇怪的问题。我已经配置了3个sparkmaster,并按照以下步骤在zookeeper中注册了它们:创建配置文件ha.conf,内容如下:spark.deploy.recoveryMode=ZOOKEEPERspark.deploy.zookeeper.url=ZK_HOST:2181spark.deploy.zookeeper.dir=/spark通过将此属性文件作为参数传递给start-master脚本来启动所有3个主控器,如下所示:./start-master.sh-hlocalhost-p17077--webui-po