草庐IT

s3DistCp

全部标签

Hadoop 用 Distcp 替换 cp

该过程正在将文件从一个hdfs位置复制到SAME集群中的另一个位置。这工作正常,但hadoop-cp需要时间。对于同一个集群,它可以替换为distcp吗?或者是否有更好的解决方案来提高性能。 最佳答案 根据文档,distcp还可以在集群内以及集群之间复制数据:https://hadoop.apache.org/docs/current/hadoop-distcp/DistCp.htmlDistCpVersion2(distributedcopy)isatoolusedforlargeinter/intra-clustercopyin

hadoop - 尽管 hadoop 访问有效,但在 EMR 上将 spark 与 s3 结合使用失败

这个问题在这里已经有了答案:SparkreadfilefromS3usingsc.textFile("s3n://...)(14个答案)关闭4年前。我正在尝试访问s3://路径spark.read.parquet("s3://")我得到了这个错误Py4JJavaError:Anerroroccurredwhilecallingo31.parquet.:java.io.IOException:NoFileSystemforscheme:s3但是,运行以下行hadoopfs-ls有效...所以我猜这可能是hadoop和spark之间的配置问题如何解决?编辑阅读建议的答案后,我尝试将硬编码的

amazon-web-services - Spark - "spark.deploy.spreadOut = false"可以在 S3 上提供性能优势

我了解将“spark.deploy.spreadOut”设置为true可以使HDFS受益,但是对于S3,设置为false是否比true更有优势? 最佳答案 如果您正在运行Hadoop和HDFS,那么使用该属性适用的SparkStandalone调度程序不会对您有好处。相反,您应该运行YARN,并且ResourceManager确定执行程序的分布方式如果您在EC2中运行独立调度程序,则设置该属性会有所帮助,默认值为true。换句话说,你从哪里读取数据不是这里的决定因素,master的部署模式是更好的性能优势将来自您尝试读取的文件数量以

hadoop - Flink - AWS EMR 中的 AWSS3IOException 由带有 S3A 的 BucketingSink 引起

我有一个在AWSEMR中运行的具有高并行度(400)的Flink应用程序。它使用BucketingSink(使用RocksDb后端进行检查点)获取Kafka并汇入S3。目的地使用“s3a://”前缀定义。Flink作业是一个连续运行的流式应用程序。在任何给定时间,所有工作人员加起来可能会生成/写入400个文件(由于400并行度)。几天后,其中一名worker将失败,但出现异常:org.apache.hadoop.fs.s3a.AWSS3IOException:copyFile(bucket/2018-09-01/05/_file-10-1.gz.in-progress,bucket/2

apache-spark - Spark S3A写省略上传部分无故障

我使用Spark2.4.0和Hadoop2.7,hadoop-aws2.7.5将数据集写入S3A上的Parquet文件。偶尔会丢失一个文件部分;即部分00003在这里:>awss3lsmy-bucket/folder/2019-02-2813:07:210_SUCCESS2019-02-2813:06:5879428651part-00000-5789ebf5-b55d-4715-8bb5-dfc5c4e4b999-c000.snappy.parquet2019-02-2813:06:5979586172part-00001-5789ebf5-b55d-4715-8bb5-dfc5c4

Hadoop distcp 错误路径仍然复制——数据去哪儿了?

我正在运行hadoopdistcp将整个目录(500GB+)从/path/to/source复制到/path/to/destination。但是,不是运行$hadoopdistcp/path/to/source/path/to/destination我做错了下面的事$hadoopdistcp/path/to/sourcepath/to/destination操作像普通的distcp副本一样完成,mapreduce需要一些时间才能运行,当然我没有在/path/to/destination中获取数据.它也不在/path/to/source/path/to/destination或我能想到的

scala - 使用临时凭证从 AWS 外部通过 spark 从 s3 读取

我正在尝试通过IntelliJ从我的笔记本电脑读取s3中的文件,这样我就可以更轻松地开发我的spark作业。textFileRDD代码在EMR集群内的Zeppelin中工作,但当我在本地尝试时却不行。在Zeppelin中,我不需要设置任何spark上下文,大概是因为Zeppelin实例在AWS环境中,它为我做了这件事。我编写了代码来创建临时AWS凭证(使用我的IAM用户key),以便我可以向spark上下文提供sessiontoken。访问key和secretkey也来自临时凭证。valsqlContext=sparkSession.sqlContextsqlContext.spark

java - 无法从 HDFS 复制到 S3A

我有一个类使用ApacheFileUtil将目录内容从一个位置复制到另一个位置:importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.fs.FileStatus;importorg.apache.hadoop.fs.FileSystem;importorg.apache.hadoop.fs.FileUtil;importorg.apache.hadoop.fs.LocatedFileStatus;importorg.apache.hadoop.fs.Path;importorg.apache.hadoop.

hadoop - 从 s3 到 hadoop 的 distcp - 找不到文件

我收到以下关于找不到文件的错误。嗯...文件存在。我是distcp的新手。我正在使用cloudera仅供引用。https://s3.amazonaws.com/test-development/test/201305031003_0_ubuntu.gzubuntu@ubuntu:~$hadoopdistcp-i201305031003_0_ubuntu.gzs3://id:key@test-development/test/201305031003_0_ubuntu.gz13/05/0414:54:29INFOtools.DistCp:srcPaths=[201305031003_0_

hadoop - 将不同 S3 文件夹中的文件作为输入传递给 mapreduce

我们的日志文件存储在S3上的年/月/日/小时桶中。结构见下。我如何将第20天的所有日志作为我的mapreduce程序的输入传递?例如:bucket=logs/year=2014/month=8/day=20/hour=1/log1_1.txtbucket=logs/year=2014/month=8/day=20/hour=2/log2_1.txtbucket=logs/year=2014/month=8/day=20/hour=2/log2_2.txtbucket=logs/year=2014/month=8/day=20/hour=2/log2_3.txtbucket=logs/y