草庐IT

s3DistCp

全部标签

hadoop - 设备异常、亚马逊 EMR 介质实例和 S3 上没有剩余空间

我在AmazonEMR上运行MapReduce作业,它创建40个输出文件,每个大约130MB。最后9个reduce任务因“设备上没有剩余空间”异常而失败。这是集群配置错误的问题吗?作业运行没有问题,输入文件更少,输出文件更少,reducer更少。任何帮助都感激不尽。谢谢!完整堆栈跟踪如下:Error:java.io.IOException:Nospaceleftondeviceatjava.io.FileOutputStream.writeBytes(NativeMethod)atjava.io.FileOutputStream.write(FileOutputStream.java:

hadoop - 使用 Distcp 在 Hadoop 中提取数据

我知道distcp用于集群间/集群内的数据传输。是否可以使用distcp将数据从本地文件系统提取到HDFS。我知道你可以使用file:///....指向HDFS之外的本地文件,但与集群间/集群内传输相比,它的可靠性和速度如何。 最佳答案 Distcp是在hadoop集群内部执行的mapreduce作业。从hadoop集群的角度来看,您的本地计算机不是本地文件系统。那么你不能将你的本地文件系统与distcp一起使用。另一种方法是在你的机器上配置一个hadoop集群可以读取的FTP服务器。性能取决于网络和使用的协议(protocol)(

hadoop - s3distcp srcPattern 不工作?

我在S3中有这样的文件:1-2013-08-22-22-something2-2013-08-22-22-somethingetc没有srcPattern我可以轻松地从存储桶中获取所有文件,但我想获取特定的前缀,例如所有的1。我试过使用srcPattern,但由于某种原因它没有获取任何文件。我当前的命令是:elastic-mapreduce--jobflow$JOBFLOW--jar/home/hadoop/lib/emr-s3distcp-1.0.jar\--args'--src,s3n://some-bucket/,--dest,hdfs:///hdfs-input,--srcPa

hadoop - 使用 s3distcp 将文件从 amazon s3 复制到 hdfs 失败

我正在尝试使用EMR中的工作流将文件从s3复制到hdfs,当我运行以下命令时,作业流成功启动但在尝试将文件复制到HDFS时给我一个错误。我需要设置任何输入吗文件权限?命令:./elastic-mapreduce--jobflowj-35D6JOYEDCELA--jars3://us-east-1.elasticmapreduce/libs/s3distcp/1.latest/s3distcp.jar--args'--src,s3://odsh/input/,--dest,hdfs:///Users输出任务TASKID="task_201301310606_0001_r_000000"T

hadoop - Spark/Hadoop - 无法使用服务器端加密保存到 s3

我正在运行AWSEMR集群来运行spark作业。为了使用s3存储桶,hadoop配置设置了访问key、secretkey、enableServerSideEncryption和用于加密的算法。请看下面的代码valhadoopConf=sc.hadoopConfiguration;hadoopConf.set("fs.s3.impl","org.apache.hadoop.fs.s3native.NativeS3FileSystem")hadoopConf.set("fs.s3.awsAccessKeyId","xxx")hadoopConf.set("fs.s3.awsSecretAc

scala - Spark : SAXParseException while writing to parquet on s3

我正在尝试读取一些json,推断模式,然后将其作为parquet再次写出到s3(s3a)。出于某种原因,在运行的写入部分进行了大约三分之一的过程中,spark总是出错并出现以下错误。我找不到任何明显的问题原因:它不是内存不足;没有长时间的GC暂停。各个执行者的日志中似乎没有任何其他错误消息。该脚本在我拥有的另一组数据上运行良好,它具有非常相似的结构,但小了几个数量级。我正在运行spark2.0.1-hadoop-2.7并使用FileOutputCommitter。算法版本似乎并不重要。编辑:对于格式错误的json或损坏的文件,这似乎不是问题。我已经解压缩并单独读取每个文件,没有错误。这

hadoop - 您可以使用 Spark SQL/Hive/Presto 直接从 Parquet/S3 复制到 Redshift 吗?

我们有大量服务器数据存储在S3中(很快将采用Parquet格式)。数据需要一些转换,因此它不能是S3的直接副本。我将使用Spark来访问数据,但我想知道是否可以不使用Spark来处理它,写回S3,然后复制到Redshift,如果我可以跳过一个步骤,运行查询以提取/转换数据,然后将其直接复制到Redshift? 最佳答案 没问题,完全有可能。读取parquet的Scala代码(取自here)valpeople:RDD[Person]=...people.write.parquet("people.parquet")valparquet

hadoop - 'distcp' 和 'distcp -update' 之间的区别?

有什么区别hadoopdistcp和hadoopdistcp-update他们都做同样的工作,只是我们称呼他们的方式略有不同。它们都不会覆盖目标中已经存在的文件。那么两组不同的命令有什么意义呢? 最佳答案 distcp和distcp-update之间的区别在于distcp默认情况下会跳过文件,而如果src大小与dst大小不同,“distcp-update”将更新文件。这在文档中有点困惑,因为distcp的默认特性是如果文件存在则跳过以防止冲突。来自文档:“如前所述,这不是“同步”操作。检查的唯一标准是源文件和目标文件的大小;如果它们

amazon-web-services - 亚马逊 S3 架构

按照目前的情况,这个问题不适合我们的问答形式。我们希望答案得到事实、引用或专业知识的支持,但这个问题可能会引发辩论、争论、投票或扩展讨论。如果您觉得这个问题可以改进并可能重新打开,visitthehelpcenter指导。关闭10年前。虽然帖子@http://highscalability.com/amazon-architecture总体上解释了Amazon的架构,我很想知道AmazonS3是如何实现的。我的一些猜测是像HDFS这样的分布式文件系统http://hadoop.apache.org/core/docs/current/hdfs_design.html像CouchDB这样

hadoop - 如何在Parquet中输出多个s3文件

写入Parquet数据可以通过如下方式完成。但是,如果我试图写入多个文件,而且还想输出到多个s3文件,以便读取单个列不会读取所有s3数据,这怎么办?AvroParquetWriterwriter=newAvroParquetWriter(file,schema);GenericData.Recordrecord=newGenericRecordBuilder(schema).set("name","myname").set("favorite_number",i).set("favorite_color","mystring").build();writer.write(record)