草庐IT

S3NativeFileSystem

全部标签

python - 尝试使用 pyspark 从 S3 获取数据时出现空指针异常

当我尝试使用pyspark从S3获取数据时,出现空指针异常。我正在使用hadoop2.4运行spark1.6.1。我尝试同时使用s3n和s3a。也尝试通过以下方式设置配置:hadoopConf=sc._jsc.hadoopConfiguration()hadoopConf.set("fs.s3.impl","org.apache.hadoop.fs.s3native.NativeS3FileSystem")hadoopConf.set("fs.s3n.awsAccessKeyId","aws-key")hadoopConf.set("fs.s3n.awsSecretAccessKey"

java - 如何将多个文件从 hdfs 上传到单个 s3 文件?

我有一个hadoop作业,可以将许多部分输出到hdfs,例如输出到某个文件夹。例如:/output/s3/2014-09-10/part...最好的方法是什么,使用s3javaapi将这些部分上传到s3中的signle文件例如s3:/jobBucket/output-file-2014-09-10.csv作为一个可能的解决方案,有一个选项可以合并各个部分并将结果写入hdfs单个文件,但这将创建一个双I/O。使用单个reducer也不是选项谢谢, 最佳答案 尝试使用FileUtil#copyMerge方法,它允许您在两个文件系统之间复

hadoop - 使用 distcp 安全地将数据从 HDFS 传输到 amazon S3

我们想将ClouderaHadoop集群中的HDFS数据备份到AmazonS3。看起来我们可以为此使用distcp但不清楚的是数据是否通过加密传输复制到S3。是否需要配置一些东西才能启用此功能? 最佳答案 我认为S3客户端加密在Hadoop中还不可用。好像S3serversideencryption(在S3端加密静态数据)可从Hadoop2.5.0进行配置。要启用它,请在core-site.xml中添加以下属性:fs.s3n.server-side-encryption-algorithmAES256Specifyaserver-s

hadoop - NameNode 地址的 URI 无效,s3a 不是模式 'hdfs'

根据我的研究,我正在做一些关于在hadoop环境(yarn)中用Ceph替换HDFS的事情,来自hortonworks的指南和ReplaceHDFSformlocaldisktos3gettingerror显示我需要修改$hadoop_home/etc/hadoop下的core-site.xml。我的修改如下:fs.s3a.access.keyxxxxxxxxxxxxxxfs.s3a.secret.keyxxxxxxxxxxxxxfs.default.names3a://bucket_namefs.defaultFSs3a://bucket_namefs.s3a.endpointhtt

hadoop - S3NativeFileSystem 调用是否会在 AWS EMR 4.6.0 上杀死我的 Pyspark 应用程序

当我的Spark应用程序必须从S3访问大量CSV文件(每个~1000@63MB)并将它们通过管道传输到SparkRDD时,它失败了。拆分CSV的实际过程似乎可行,但对S3NativeFileSystem的额外函数调用似乎导致错误和作业崩溃。首先,以下是我的PySpark应用程序:frompysparkimportSparkContextsc=SparkContext("local","SimpleApp")frompyspark.sqlimportSQLContextsqlContext=SQLContext(sc)importtimestartTime=float(time.time

scala - 在 Apache Spark 中按列分区到 S3

有我们想要从具有JSON的S3读取文件的用例。然后,基于特定的JSON节点值,我们希望对数据进行分组并将其写入S3。我能够读取数据,但找不到关于如何根据JSONkey对数据进行分区然后上传到S3的好例子。任何人都可以提供任何示例或指向可以帮助我处理此用例的教程吗?创建数据框后我得到了我的数据模式:root|--customer:struct(nullable=true)||--customerId:string(nullable=true)|--experiment:string(nullable=true)|--expiryTime:long(nullable=true)|--par

amazon-s3 - 将目录作为压缩文件从 Elastic MapReduce 上传到 S3

我想将EMR本地文件系统中的目录作为压缩文件上传到s3。有没有比我目前使用的方法更好的方法来解决这个问题?是否可以将ZipOutputStream作为Reducer输出返回?谢谢zipFolderAndUpload("target","target.zip","s3n://bucketpath/");staticpublicvoidzipFolderAndUpload(StringsrcFolder,StringzipFile,Stringdst)throwsException{//ZipsadirectoryFileOutputStreamfileWriter=newFileOutp

hadoop - 使用 Spark 读取 S3 文件时出现 NullPointerException

我正在尝试使用Spark读取S3文件并出现以下异常:java.lang.NullPointerExceptionatorg.apache.hadoop.fs.s3native.NativeS3FileSystem.getFileStatus(NativeS3FileSystem.java:433)atorg.apache.hadoop.fs.Globber.getFileStatus(Globber.java:57)atorg.apache.hadoop.fs.Globber.glob(Globber.java:248)atorg.apache.hadoop.fs.FileSystem

hadoop - 无法从 Hadoop 访问公共(public) S3 存储桶

我正在使用Hadoop处理GoogleBooksngram,它们作为Hadoop序列文件存储在AmazonS3中。Hadoop包括从S3读取的功能(使用S3存储桶作为虚拟“文件系统”),只需在文件名上指定s3://或s3n://协议(protocol)即可。不幸的是,它需要您设置您的AWS访问key和secretkey。由于我想读取的存储桶是公开的,所以我没有任何key可以使用。如果我使用自己的key,则无法从ngrams存储桶中读取(因为它不属于我的帐户)。我如何从Hadoop使用存储在公共(public)S3存储桶中的文件,而无需自己重新托管文件(这会变得非常昂贵,因为有几TB的数

渲染存储在S3中的降价文件,上传了神社 - 轨道

我正在使用Shrine将Rails应用程序中的文件上传到S3。一切都很好,但是我不知道如何使用RedCarpetGem显示该文件。例如,我可以这样做:而且工作正常。但是如果我这样做:向我展示了S3的下载链接。如何获得文件内容而不是文件链接?看答案拨电至@rfile.rfile返回aShrine::UploadedFile对象,除了仅仅是其他方便的方法#url。在这种方法上是#read,检索文件的内容:但是,在这种情况下,将打开和读取文件,但不关闭。所以最好打电话#open用块,打电话#read在屈服的io对象上,可以整齐地写成