草庐IT

S3NativeFileSystem

全部标签

hadoop - s3distcp 在显示 100% 后挂起

为了尝试解决performanceissues使用AmazonEMR,我尝试使用s3distcp将文件从S3复制到我的EMR集群以进行本地处理。作为第一个测试,我从一个目录复制一天的数据,2160个文件,使用--groupBy选项将它们折叠成一个(或几个)文件。工作似乎运行得很好,向我展示了map/reduce进度到100%,但此时进程挂起并且再也没有回来。我怎样才能弄清楚发生了什么?源文件是存储在S3中的GZipped文本文件,每个大约30kb。这是一个普通的AmazonEMR集群,我从主节点的shell运行s3distcp。hadoop@ip-xxx:~$hadoopjar/hom

hadoop - 如何在 aws us-east-2 上将 s3a 与 spark 2.1.0 一起使用?

背景我一直在努力为自己获取一个灵活的设置,以便在aws上使用spark和dockerswarm模式。我一直在使用的docker镜像配置为使用最新的spark,当时是2.1.0和Hadoop2.7.3,可在jupyter/pyspark-notebook获得。.这是有效的,我一直在测试我计划使用的各种连接路径。我遇到的问题是与s3交互的正确方式的不确定性。我一直在跟踪如何使用s3a为spark提供依赖项以连接到awss3上的数据。协议(protocol),对比s3n协议(protocol)。我终于找到了hadoopawsguide并认为我正在关注如何提供配置。但是,我仍然收到400Bad

hadoop - 设备异常、亚马逊 EMR 介质实例和 S3 上没有剩余空间

我在AmazonEMR上运行MapReduce作业,它创建40个输出文件,每个大约130MB。最后9个reduce任务因“设备上没有剩余空间”异常而失败。这是集群配置错误的问题吗?作业运行没有问题,输入文件更少,输出文件更少,reducer更少。任何帮助都感激不尽。谢谢!完整堆栈跟踪如下:Error:java.io.IOException:Nospaceleftondeviceatjava.io.FileOutputStream.writeBytes(NativeMethod)atjava.io.FileOutputStream.write(FileOutputStream.java:

hadoop - s3distcp srcPattern 不工作?

我在S3中有这样的文件:1-2013-08-22-22-something2-2013-08-22-22-somethingetc没有srcPattern我可以轻松地从存储桶中获取所有文件,但我想获取特定的前缀,例如所有的1。我试过使用srcPattern,但由于某种原因它没有获取任何文件。我当前的命令是:elastic-mapreduce--jobflow$JOBFLOW--jar/home/hadoop/lib/emr-s3distcp-1.0.jar\--args'--src,s3n://some-bucket/,--dest,hdfs:///hdfs-input,--srcPa

hadoop - 使用 s3distcp 将文件从 amazon s3 复制到 hdfs 失败

我正在尝试使用EMR中的工作流将文件从s3复制到hdfs,当我运行以下命令时,作业流成功启动但在尝试将文件复制到HDFS时给我一个错误。我需要设置任何输入吗文件权限?命令:./elastic-mapreduce--jobflowj-35D6JOYEDCELA--jars3://us-east-1.elasticmapreduce/libs/s3distcp/1.latest/s3distcp.jar--args'--src,s3://odsh/input/,--dest,hdfs:///Users输出任务TASKID="task_201301310606_0001_r_000000"T

hadoop - Spark/Hadoop - 无法使用服务器端加密保存到 s3

我正在运行AWSEMR集群来运行spark作业。为了使用s3存储桶,hadoop配置设置了访问key、secretkey、enableServerSideEncryption和用于加密的算法。请看下面的代码valhadoopConf=sc.hadoopConfiguration;hadoopConf.set("fs.s3.impl","org.apache.hadoop.fs.s3native.NativeS3FileSystem")hadoopConf.set("fs.s3.awsAccessKeyId","xxx")hadoopConf.set("fs.s3.awsSecretAc

scala - Spark : SAXParseException while writing to parquet on s3

我正在尝试读取一些json,推断模式,然后将其作为parquet再次写出到s3(s3a)。出于某种原因,在运行的写入部分进行了大约三分之一的过程中,spark总是出错并出现以下错误。我找不到任何明显的问题原因:它不是内存不足;没有长时间的GC暂停。各个执行者的日志中似乎没有任何其他错误消息。该脚本在我拥有的另一组数据上运行良好,它具有非常相似的结构,但小了几个数量级。我正在运行spark2.0.1-hadoop-2.7并使用FileOutputCommitter。算法版本似乎并不重要。编辑:对于格式错误的json或损坏的文件,这似乎不是问题。我已经解压缩并单独读取每个文件,没有错误。这

hadoop - 您可以使用 Spark SQL/Hive/Presto 直接从 Parquet/S3 复制到 Redshift 吗?

我们有大量服务器数据存储在S3中(很快将采用Parquet格式)。数据需要一些转换,因此它不能是S3的直接副本。我将使用Spark来访问数据,但我想知道是否可以不使用Spark来处理它,写回S3,然后复制到Redshift,如果我可以跳过一个步骤,运行查询以提取/转换数据,然后将其直接复制到Redshift? 最佳答案 没问题,完全有可能。读取parquet的Scala代码(取自here)valpeople:RDD[Person]=...people.write.parquet("people.parquet")valparquet

amazon-web-services - 亚马逊 S3 架构

按照目前的情况,这个问题不适合我们的问答形式。我们希望答案得到事实、引用或专业知识的支持,但这个问题可能会引发辩论、争论、投票或扩展讨论。如果您觉得这个问题可以改进并可能重新打开,visitthehelpcenter指导。关闭10年前。虽然帖子@http://highscalability.com/amazon-architecture总体上解释了Amazon的架构,我很想知道AmazonS3是如何实现的。我的一些猜测是像HDFS这样的分布式文件系统http://hadoop.apache.org/core/docs/current/hdfs_design.html像CouchDB这样

hadoop - 如何在Parquet中输出多个s3文件

写入Parquet数据可以通过如下方式完成。但是,如果我试图写入多个文件,而且还想输出到多个s3文件,以便读取单个列不会读取所有s3数据,这怎么办?AvroParquetWriterwriter=newAvroParquetWriter(file,schema);GenericData.Recordrecord=newGenericRecordBuilder(schema).set("name","myname").set("favorite_number",i).set("favorite_color","mystring").build();writer.write(record)