草庐IT

VCAP_SERVICES

全部标签

amazon-web-services - 有没有办法在运行时配置和更改 Yarn 调度程序?

目前我正在使用默认的Yarn调度器,但我想做一些类似的事情-RunYarnusingthedefaultschedulerIf(numberofjobsinqueue>X){ChangetheYarnschedulertoFIFO}这甚至可以通过代码实现吗?请注意,我正在使用Yarn作为RM在awsEMR集群上运行Spark作业。 最佳答案 好吧,这可以通过轮询器检查当前队列(使用RMAPI)并更新yarn-site.xml+可能重启RM来实现。但是,重新启动RM可能会影响您的队列,因为当前作业将被终止或关闭(并且可能稍后重试)。如

amazon-web-services - 如何使用 aws lambda (boto3) 检查 aws ec2 是否正在运行

我想知道我的实例是否处于运行状态,如果它处于运行状态,那么只有文件将从s3复制到我的ec2实例,然后文件将在该机器上运行。 最佳答案 可以查询instance"state"attribute.例如:instance.state['Name']这会返回一个状态字符串,例如stopped可能的状态是:0:pending16:running32:shutting-down48:terminated64:stopping80:stopped这里是Pythoncodeexample检索EC2实例信息。

amazon-web-services - PIG 中的 DUMP 命令不起作用

我编写了一个简单的PIG程序,如下所示,用于分析AWS上的googlen-grams数据集的小型修改版本。数据看起来像这样:Iam193694290Iam19458115Iam19514712verycool192311810verycool1980320100verycool2012994302verycool20171820612并具有以下形式:n-gramTAByearTABoccurrencesTABbooksNEWLINE我编写了以下程序来计算每本书中ngram的出现次数:inp=LOADAS(ngram:chararray,year:int,occurences:int,b

amazon-web-services - 未设置 Pig 模式元组。不会生成代码

我在googlen-grams数据集上对pig运行了以下命令:inp=LOAD'linktofile'AS(ngram:chararray,year:int,occurences:float,books:float);filter_input=FILTERinpBY(occurences>=400)AND(books>=8);groupinp=GROUPfilter_inputBYngram;sum_occ=FOREACHgroupinpGENERATEFLATTEN(group)asngram,SUM(filter_input.occurences)/SUM(filter_input

amazon-web-services - 在亚马逊。我将结果整理到主节点上,然后准备写入 S3,出现以下错误 :

在Hadoop中,我将结果整理到主节点上,然后准备写入S3,出现以下错误:18/08/1920:10:13WARNDataStreamer:ExceptionforBP-2033025931-192.168.3.27-1534682170082:blk_1073741835_1011java.io.EOFException:UnexpectedEOFwhiletryingtoreadresponsefromserveratorg.apache.hadoop.hdfs.protocolPB.PBHelperClient.vintPrefixed(PBHelperClient.java:4

amazon-web-services - 尝试在 EMR 上安装 Spark 时引导失败

我正在使用此链接在EMR(Amazon上的ElasticMapReduce)上安装SparkClusterhttps://aws.amazon.com/articles/Elastic-MapReduce/4926593393724923为了创建Spark集群,我运行了以下命令,但我的集群每次都遇到引导失败。我无法解决这个问题,如果有人能在这里帮助我,那就太好了。awsemrcreate-cluster--nameSparkCluster--ami-version3.2\--instance-typem3.xlarge--instance-count3--ec2-attributes\

amazon-web-services - 如何使用 Hadoop 2.6 启动 Spark EC2 集群

我正在尝试使用Hadoop2.6在Spark1.6.1上运行SparkEC2集群-这是我尝试过的:./spark-ec2-i~/.ssh/***.pem\--instance-profile-name***\-k***\--region=us-east-1\--instance-type=m3.xlarge\-s2\--copy-aws-credentials\launchtest-cluster不过,这次安装的是Hadoop1.0。所以我在上面的命令中添加了以下选项:--hadoop-major-version=2\但是,我很快意识到,为了正确运行我的应用程序,我需要Hadoop2.

amazon-web-services - Hadoop配置属性

在我的Spark代码中,我必须在HadoopConfiguration中设置ACCESS_KEY和SECRET_KEY才能访问AWS-S3。在互联网上,我找到了多种设置这些属性的方法。例如样式#1,sc.hadoopConfiguration.set("fs.s3n.access.key",AWS_ACCESS_KEY)sc.hadoopConfiguration.set("fs.s3n.secret.key",AWS_SECRET_KEY)样式#2,sc.hadoopConfiguration.set("fs.s3n.awsAccessKeyId",AWS_ACCESS_KEY)sc

amazon-web-services - 如何让 EMR 持续运行

这个问题在这里已经有了答案:关闭10年前。PossibleDuplicate:Re-useAmazonElasticMapReduceinstance我能否让已启动的EMR集群保持运行并继续向其提交新作业直到我完成(比如几天后)然后关闭集群,或者我是否必须在EC2中启动我自己的集群才能这样做?

amazon-web-services - 如何使用 "s3a://"方案让 Hive 2.2.1 成功与 AWS S3 集成

我遵循了各种已发布的文档,了解如何使用s3a://方案将ApacheHive2.1.1与AWSS3集成,配置fs.s3a.access.key和fs.s3a.secret.key用于hadoop/etc/hadoop/core-site.xml和hive/conf/hive-site.xml.我现在可以让hdfsdfs-lss3a://[bucket-name]/正常工作(它返回那个桶的s3ls)。所以我知道我的信用、存储桶访问和整体Hadoop设置是有效的。hdfsdfs-lss3a://[bucket-name]/drwxrwxrwx-hdfshdfs02017-06-2722:4