草庐IT

amazon-swf

全部标签

amazon-web-services - 尝试在 EMR 上安装 Spark 时引导失败

我正在使用此链接在EMR(Amazon上的ElasticMapReduce)上安装SparkClusterhttps://aws.amazon.com/articles/Elastic-MapReduce/4926593393724923为了创建Spark集群,我运行了以下命令,但我的集群每次都遇到引导失败。我无法解决这个问题,如果有人能在这里帮助我,那就太好了。awsemrcreate-cluster--nameSparkCluster--ami-version3.2\--instance-typem3.xlarge--instance-count3--ec2-attributes\

hadoop - 在 Amazon EC2 上将 HDFS 与 Apache Spark 结合使用

我使用sparkEC2脚本设置了一个spark集群。我设置了集群,现在正尝试将文件放在HDFS上,这样我的集群就可以正常工作。在我的主机上,我有一个文件data.txt。我通过ephemeral-hdfs/bin/hadoopfs-putdata.txt/data.txt将它添加到hdfs现在,在我的代码中,我有:JavaRDDrdd=sc.textFile("hdfs://data.txt",8);执行此操作时出现异常:Exceptioninthread"main"java.net.UnknownHostException:unknownhost:data.txtatorg.apac

python - 创建 step spark python, amazon hadoop

我正在Amazon上使用Hadoop创建一个Spark步骤,但我一直在思考。不是因为我的代码不好或发送错误的判断,而是找不到出路。我传递代码spark-submit--deploy-modecluster--masteryarn--num-executors5--executor-cores5--executor-memory1gs3://URL-S3/scripts/test.py脚本:importboto3dynamodb=boto3.resource('dynamodb')table=dynamodb.Table('TestSpark')table.put_item(Item={

amazon-web-services - 如何使用 Hadoop 2.6 启动 Spark EC2 集群

我正在尝试使用Hadoop2.6在Spark1.6.1上运行SparkEC2集群-这是我尝试过的:./spark-ec2-i~/.ssh/***.pem\--instance-profile-name***\-k***\--region=us-east-1\--instance-type=m3.xlarge\-s2\--copy-aws-credentials\launchtest-cluster不过,这次安装的是Hadoop1.0。所以我在上面的命令中添加了以下选项:--hadoop-major-version=2\但是,我很快意识到,为了正确运行我的应用程序,我需要Hadoop2.

amazon-web-services - Hadoop配置属性

在我的Spark代码中,我必须在HadoopConfiguration中设置ACCESS_KEY和SECRET_KEY才能访问AWS-S3。在互联网上,我找到了多种设置这些属性的方法。例如样式#1,sc.hadoopConfiguration.set("fs.s3n.access.key",AWS_ACCESS_KEY)sc.hadoopConfiguration.set("fs.s3n.secret.key",AWS_SECRET_KEY)样式#2,sc.hadoopConfiguration.set("fs.s3n.awsAccessKeyId",AWS_ACCESS_KEY)sc

amazon-web-services - 如何让 EMR 持续运行

这个问题在这里已经有了答案:关闭10年前。PossibleDuplicate:Re-useAmazonElasticMapReduceinstance我能否让已启动的EMR集群保持运行并继续向其提交新作业直到我完成(比如几天后)然后关闭集群,或者我是否必须在EC2中启动我自己的集群才能这样做?

hadoop - 在 Amazon S3 中创建由 Avro 文件支持的 Hive 表时出现问题

我一直在尝试在S3中创建一个由Avro文件支持的Hive表。最初,我认为这可能相对简单,但我遇到了以下错误。这是创建表的命令:setfs.s3.awsAccessKeyId=ACCESS_KEY_ID;setfs.s3.awsSecretAccessKey=SECRET_ACCESS_KEY;usesome_database;CREATEEXTERNALTABLEexperiment_with_s3_backed_dataROWFORMATSERDE'org.apache.hadoop.hive.serde2.avro.AvroSerDe'WITHSERDEPROPERTIES('av

python - 在 Amazon EMR 上安装 PIG 0.14

我需要使用Hadoop2.x从PIG在AmazonEMR上运行Python流式UDF基于文档PIGworkswithHadoop2.xsinceversion0.14http://pig.apache.org/docs/r0.12.0/udf.html#python-udfshttp://pig.apache.org/docs/r0.14.0/udf.html#python-udfs我个人曾尝试过Python流式UDF在0.12上不起作用,并且根据0.14文档中缺少的注释,在我看来它应该在这个版本中起作用。在AmazonEMR文档中看到受支持的PIG版本,在我看来,只有低于0.12的受

r - 将 Hive 表从 HDFS 移动到 Amazon Redshift

我尝试将通过连接4-5个数据集创建的Hive表传输到Redshift。这个过程应该如何实现?我们在边缘节点上有可用的R。Hive表必须先传输到S3,然后从s3传输到Redshift。这是唯一的方法吗?是否可以使用R,即使用RHive包将我的数据集从HDFS移动到R,然后将该数据集从R移动到Redshift? 最佳答案 您可以使用RJDBC连接到Redshift(Redshift是pgsql)。因此,您可以使用从配置单元读取一行,并使用R中的RJDBC将其加载到Redshift。您创建1000个或更多的批处理并插入Redshift。如

hadoop - 从 Pig UDF Java 类中的分布式缓存访问文件,Amazon EMR

我正在尝试访问UDF中的文件(sample.txt)。我想将该文件放在分布式缓存中并从那里使用它。我正在使用亚马逊EMR来运行Pig作业。我在创建集群时使用EMRbootstrap-action将文件(sample.txt)复制到HDFS。bootstrap.sh(将文件从s3复制到hdfs)hadoopfs-copyToLocals3n://s3_path/sample.txt/mnt/sample.txtUsingSample.java(使用sample.txt的UDF)publicclassUsingSampleextendsEvalFunc{publicStringuseSam