草庐IT

initial_capacity

全部标签

hadoop - Spark 提交 :ERROR SparkContext: Error initializing SparkContext

我正在尝试在HadoopYARN客户端模式下运行我的spark作业,我正在使用以下命令$/usr/hdp/current/spark-client/bin/spark-submit--masteryarn-client--driver-memory1g--executor-memory1g--executor-cores1--filesparma1--jarsparam1param2--classcom.dc.analysis.jobs.AggregationJobsparkanalytics.jarparam1param2param3请在下面找到spark-default配置:Spa

linux - 运行 hadoop 集群时在 Google Cloud Platform 上获取 'sudo: unknown user: hadoop' 和 'sudo: unable to initialize policy plugin error'

我正在尝试部署Google在https://github.com/GoogleCloudPlatform/solutions-google-compute-engine-cluster-for-hadoop提供的示例Hadoop应用程序在谷歌云平台上。我逐步按照那里给出的所有设置说明进行操作。我能够设置环境并成功启动集群。但是我无法运行MapReduce部分。我正在我的终端上执行这个命令:./compute_cluster_for_hadoop.pymapreduce[--prefix]--inputgs://\--outputgs://\--mappersample/shortest

linux - 预认证失败 : Password read interrupted while getting initial credentials

关闭。这个问题不符合StackOverflowguidelines.它目前不接受答案。这个问题似乎与helpcenter中定义的范围内的编程无关。.关闭4年前。Improvethisquestion这是我遇到过的事情,我找到了解决方案。从那里没有任何问题,我会把它作为一个问题发布,我会写下我的解决方案作为答案。环境:操作系统:CentosLinux、MacOS(BigSur)集群:ClouderaHadoopDistribution,工具:Kerberos问题:我通过“ktutil”创建了“user.keytab”文件来更新没有密码的krb票据,正如这里推荐的那样https://kb.

apache-spark - 错误 : User did not initialize spark context

记录错误:TestSuccessfull2018-08-2004:52:15INFOApplicationMaster:54-Finalappstatus:FAILED,exitCode:132018-08-2004:52:15ERRORApplicationMaster:91-Uncaughtexception:java.lang.IllegalStateException:Userdidnotinitializesparkcontext!atorg.apache.spark.deploy.yarn.ApplicationMaster.runDriver(ApplicationMas

hadoop - 如何解决 Oozie 错误 : JA009: Cannot initialize Cluster. 检查 mapreduce.framework.name 的配置

我一直在使用oozie来安排spark作业。尝试使用Oozie中可用的spark操作在2.x集群中部署spark作业。在我的job.properties中,我有以下内容`nameNode=hdfs://hostname:8020jobTracker=hostname:8050master=yarn-clusterqueueName=defaultoozie.use.system.libpath=true`当我提交oozie作业时,我一直收到此错误错误:错误代码[JA009],消息[JA009:无法初始化集群。请检查您的mapreduce.framework.name配置和相应的服务器地

hadoop - hive ,直线 : Peer indicated failure: GSS initiate failed

我正在使用在Kerberos中添加的帐户启动beeline来测试Sentry:beeline-u"jdbc:hive2://IP:10000/;principal=test_table/domain_name@HADOOP.COM"但是JavaHotSpot(TM)64-BitServerVMwarning:ignoringoptionMaxPermSize=512M;supportwasremovedin8.0JavaHotSpot(TM)64-BitServerVMwarning:ignoringoptionMaxPermSize=512M;supportwasremovedin8

hadoop - kinit : Client's credentials have been revoked while getting initial credentials

我的hdp集群配置了带有AD的kerberos。所有HDP服务帐户都生成了主体和key表,包括spark。我知道服务帐户没有密码并设置为未过期。现在在执行kinit-ktspark.keytab-pspark-PRINCIPAL时出现以下错误(请参阅标题)。我在麻省理工学院的网站上读到,这是由于多次登录尝试失败或KDC中默认策略中设置的帐户过期而发生的。可以使用kadmin命令解锁帐户,例如kadmin:modprincispark/principal但我已与AD管理员进行交叉检查。他说我们在使用AD时不使用kdc服务器执行kadmin命令,但说使用ADUI检查时spark帐户处于解锁

hadoop - 亚马逊电子病历 : Initializing a cluster with data

我正在使用AmazonEMR,并且能够使用CLI工具创建和运行工作流。作业运行良好。但是,当我尝试将数据从S3和名称节点的本地文件系统加载到我的EMR集群的HDFS时遇到了问题。我想从S3填充HDFS。我正在尝试使用S3DistCp工具执行此操作。我正在运行这个命令:elastic-mapreduce--jobflow$JOBFLOWID--jars3://us-east-1.elasticmapreduce/libs/s3distcp/1.0.1/s3distcp.jar--arg--src--arg's3n://my-bucket/src'--arg--dest--arg'hdfs

hadoop - 无法启动 ResourceManager (capacity-scheduler.xml) 找不到 hadoop 2-6.0

我安装了haddop-2.6.0并遵循了Apache站点http://hadoop.apache.org/docs/r2.6.0/hadoop-project-dist/hadoop-common/SingleCluster.html中的单集群说明。当我尝试使用以下命令启动ResourceManager时$sbin/start-yarn.sh我在控制台中没有收到任何错误,但是当我看到资源管理器日志时却看到了错误。这是日志2015-02-0519:59:08,360INFO[main]resourcemanager.RMNMInfo(RMNMInfo.java:(63))-Registe

hadoop - Hive 安装问题 : Hive metastore database is not initialized

我尝试在树莓派2上安装Hive。我通过解压缩压缩的Hive包安装Hive,并在我创建的hduser用户组下手动配置$HADOOP_HOME和$HIVE_HOME。运行配置单元时,我收到以下错误消息:hiveERRORStatusLoggerNolog4j2configurationfilefound.Usingdefaultconfiguration:loggingonlyerrorstotheconsole.Exceptioninthread"main"java.lang.RuntimeException:Hivemetastoredatabaseisnotinitialized.P