草庐IT

s3DistCp

全部标签

hadoop - NameNode 地址的 URI 无效,s3a 不是模式 'hdfs'

根据我的研究,我正在做一些关于在hadoop环境(yarn)中用Ceph替换HDFS的事情,来自hortonworks的指南和ReplaceHDFSformlocaldisktos3gettingerror显示我需要修改$hadoop_home/etc/hadoop下的core-site.xml。我的修改如下:fs.s3a.access.keyxxxxxxxxxxxxxxfs.s3a.secret.keyxxxxxxxxxxxxxfs.default.names3a://bucket_namefs.defaultFSs3a://bucket_namefs.s3a.endpointhtt

hadoop - S3NativeFileSystem 调用是否会在 AWS EMR 4.6.0 上杀死我的 Pyspark 应用程序

当我的Spark应用程序必须从S3访问大量CSV文件(每个~1000@63MB)并将它们通过管道传输到SparkRDD时,它失败了。拆分CSV的实际过程似乎可行,但对S3NativeFileSystem的额外函数调用似乎导致错误和作业崩溃。首先,以下是我的PySpark应用程序:frompysparkimportSparkContextsc=SparkContext("local","SimpleApp")frompyspark.sqlimportSQLContextsqlContext=SQLContext(sc)importtimestartTime=float(time.time

hadoop - 如何在将数据从 Hadoop 传输到 Google Cloud Storage 时加快 distcp

谷歌云提供了与Hadoop一起工作的连接器。(https://cloud.google.com/hadoop/google-cloud-storage-connector)使用连接器,我从hdfs接收数据到谷歌云存储例)hadoopdiscphdfs://${path}gs://${path}但是数据太大(16TB),接收速度只有2mb/s因此,我尝试更改设置distcp(map属性、带宽属性...)但是速度是一样的。如何在将数据从HDFS传输到GoogleCloudStorage时加快distcp 最佳答案 officialdoc

scala - 在 Apache Spark 中按列分区到 S3

有我们想要从具有JSON的S3读取文件的用例。然后,基于特定的JSON节点值,我们希望对数据进行分组并将其写入S3。我能够读取数据,但找不到关于如何根据JSONkey对数据进行分区然后上传到S3的好例子。任何人都可以提供任何示例或指向可以帮助我处理此用例的教程吗?创建数据框后我得到了我的数据模式:root|--customer:struct(nullable=true)||--customerId:string(nullable=true)|--experiment:string(nullable=true)|--expiryTime:long(nullable=true)|--par

amazon-s3 - 将目录作为压缩文件从 Elastic MapReduce 上传到 S3

我想将EMR本地文件系统中的目录作为压缩文件上传到s3。有没有比我目前使用的方法更好的方法来解决这个问题?是否可以将ZipOutputStream作为Reducer输出返回?谢谢zipFolderAndUpload("target","target.zip","s3n://bucketpath/");staticpublicvoidzipFolderAndUpload(StringsrcFolder,StringzipFile,Stringdst)throwsException{//ZipsadirectoryFileOutputStreamfileWriter=newFileOutp

hadoop - 使用 Spark 读取 S3 文件时出现 NullPointerException

我正在尝试使用Spark读取S3文件并出现以下异常:java.lang.NullPointerExceptionatorg.apache.hadoop.fs.s3native.NativeS3FileSystem.getFileStatus(NativeS3FileSystem.java:433)atorg.apache.hadoop.fs.Globber.getFileStatus(Globber.java:57)atorg.apache.hadoop.fs.Globber.glob(Globber.java:248)atorg.apache.hadoop.fs.FileSystem

hadoop - 无法从 Hadoop 访问公共(public) S3 存储桶

我正在使用Hadoop处理GoogleBooksngram,它们作为Hadoop序列文件存储在AmazonS3中。Hadoop包括从S3读取的功能(使用S3存储桶作为虚拟“文件系统”),只需在文件名上指定s3://或s3n://协议(protocol)即可。不幸的是,它需要您设置您的AWS访问key和secretkey。由于我想读取的存储桶是公开的,所以我没有任何key可以使用。如果我使用自己的key,则无法从ngrams存储桶中读取(因为它不属于我的帐户)。我如何从Hadoop使用存储在公共(public)S3存储桶中的文件,而无需自己重新托管文件(这会变得非常昂贵,因为有几TB的数

渲染存储在S3中的降价文件,上传了神社 - 轨道

我正在使用Shrine将Rails应用程序中的文件上传到S3。一切都很好,但是我不知道如何使用RedCarpetGem显示该文件。例如,我可以这样做:而且工作正常。但是如果我这样做:向我展示了S3的下载链接。如何获得文件内容而不是文件链接?看答案拨电至@rfile.rfile返回aShrine::UploadedFile对象,除了仅仅是其他方便的方法#url。在这种方法上是#read,检索文件的内容:但是,在这种情况下,将打开和读取文件,但不关闭。所以最好打电话#open用块,打电话#read在屈服的io对象上,可以整齐地写成

hadoop - s3distcp 在显示 100% 后挂起

为了尝试解决performanceissues使用AmazonEMR,我尝试使用s3distcp将文件从S3复制到我的EMR集群以进行本地处理。作为第一个测试,我从一个目录复制一天的数据,2160个文件,使用--groupBy选项将它们折叠成一个(或几个)文件。工作似乎运行得很好,向我展示了map/reduce进度到100%,但此时进程挂起并且再也没有回来。我怎样才能弄清楚发生了什么?源文件是存储在S3中的GZipped文本文件,每个大约30kb。这是一个普通的AmazonEMR集群,我从主节点的shell运行s3distcp。hadoop@ip-xxx:~$hadoopjar/hom

hadoop - 如何在 aws us-east-2 上将 s3a 与 spark 2.1.0 一起使用?

背景我一直在努力为自己获取一个灵活的设置,以便在aws上使用spark和dockerswarm模式。我一直在使用的docker镜像配置为使用最新的spark,当时是2.1.0和Hadoop2.7.3,可在jupyter/pyspark-notebook获得。.这是有效的,我一直在测试我计划使用的各种连接路径。我遇到的问题是与s3交互的正确方式的不确定性。我一直在跟踪如何使用s3a为spark提供依赖项以连接到awss3上的数据。协议(protocol),对比s3n协议(protocol)。我终于找到了hadoopawsguide并认为我正在关注如何提供配置。但是,我仍然收到400Bad