草庐IT

S3NativeFileSystem

全部标签

scala - Spark Scala S3 存储 : permission denied

我在Internet上阅读了很多关于如何让Spark与S3一起工作的主题,但仍然没有任何东西可以正常工作。我已经下载了:Spark2.3.2withhadoop2.7andabove.我只从Hadoop2.7.7(匹配Spark/Hadoop版本)复制了一些库到Sparkjars文件夹:hadoop-aws-2.7.7.jarhadoop-auth-2.7.7.jaraws-java-sdk-1.7.4.jar我仍然无法使用S3N或S3A来让spark读取我的文件:对于S3A我有这个异常(exception):sc.hadoopConfiguration.set("fs.s3a.acc

scala - 如何在 Spark 提交中将 s3a 与 Apache spark 2.2(hadoop 2.8) 一起使用?

我正在尝试使用使用hadoop2.8版本构建的spark2.2.0从spark访问S3数据,我正在使用/jars/hadoop-aws-2.8.3。jar,/jars/aws-java-sdk-s3-1.10.6.jar和/jars/aws-java-sdk-core-1.10.6.jar在类路径我得到以下异常java.lang.NoClassDefFoundError:org/apache/hadoop/fs/StorageStatisticsatjava.lang.Class.forName0(NativeMethod)atjava.lang.Class.forName(Class

java - 如何在 hadoop 配置中正确设置 s3a 配置?

我收到奇怪的错误,例如-无法获取aws凭据或无法从...加载凭据有没有办法在hadoop配置中明确设置s3a凭证? 最佳答案 由于s3a是相对较新的实现(并且从hadoop2.7开始可以正常工作),您需要在hadoop配置中设置两组属性-conf.set("fs.s3a.access.key",access_key);conf.set("fs.s3a.secret.key",secret_key);conf.set("fs.s3a.awsAccessKeyId",access_key);conf.set("fs.s3a.awsSec

hadoop - 您可以将 s3distcp 与 gzip 压缩输入一起使用吗?

我正在尝试使用s3distcp来编译许多小的gzip文件,不幸的是,这些文件没有以gz扩展名结尾。s3distcp有一个可用于压缩输出的outputCodec参数,但没有相应的inputCodec。我正在尝试将--jobconf与hadoop流调用一起使用,但它似乎没有做任何事情(输出仍然是压缩的)。我使用的命令是hadoopjarlib/emr-s3distcp-1.0.jar-Dstream.recordreader.compression=gzip\--srcs3://inputfolder--desthdfs:///data任何想法可能会发生什么?我正在运行AWSEMRAMI-

hadoop - 从 S3 读取超过 500GB 的数据并将 400GB 输出保存到 S3 是个好主意吗?

我的MR作业从AWSS3读取500GB数据,同时将中间数据保存在S3中,并将reducer的输出(大约400GB)写入S3,这是一个好的设计吗?还有其他更便宜、更稳定的解决方案吗?谢谢! 最佳答案 我们的ETL作业在AWS中运行。我们使用Oozie进行工作流管理。当您在EMR(ElasticMapReduce)中运行时,您可以选择写入s3或本地HDFS。将数据存储在s3或HDFS中的决定取决于多种因素,例如:数据的性质:临时(使用HDFS)或永久(使用s3)成本:存储在s3中会花费您一些美分/美元带宽:当您将数据上传到s3时,您会消

hadoop - 使用 amazon s3 作为输入、输出并将中间结果存储在 EMR map reduce 作业中

我正在尝试将Amazons3存储与EMR结合使用。但是,当我当前运行我的代码时,出现多个错误,例如java.lang.IllegalArgumentException:Thisfilesystemobject(hdfs://10.254.37.109:9000)doesnotsupportaccesstotherequestpath's3n://energydata/input/centers_200_10k_norm.csv'YoupossiblycalledFileSystem.get(conf)whenyoushouldhavecalledFileSystem.get(uri,c

hadoop - EMR - 从 S3 运行 Pig 脚本时出现问题

我尝试在EMR上运行Pig脚本,例如:pig-fs3://bucket-name/loadData.pig但它失败并出现错误:错误2999:意外的内部错误。空java.lang.NullPointerException异常在org.apache.pig.impl.io.FileLocalizer.fetchFilesInternal(FileLocalizer.java:778)在org.apache.pig.impl.io.FileLocalizer.fetchFiles(FileLocalizer.java:746)在org.apache.pig.PigServer.registe

hadoop - s3distcp 的多个源文件

有没有办法使用s3distcp将文件列表从S3复制到hdfs而不是完整的文件夹?这是srcPattern无法工作的时候。我在s3文件夹中有多个文件,它们的名称各不相同。我只想将特定文件复制到hdfs目录。我没有找到任何方法来指定s3distcp的多个源文件路径。我目前使用的解决方法是告诉srcPattern中的所有文件名hadoopjars3distcp.jar--srcs3n://bucket/src_folder/--desthdfs:///test/output/--srcPattern'.*somefile.*|.*anotherone.*'这个东西在文件数量多的时候能用吗?大

amazon-web-services - 从 hadoop 访问 amazon S3 bucket 从命令行指定 SecretAccessKey

我正在尝试使用hdfs命令访问amazonS3存储桶。这是我运行的命令:$hadoopfs-lss3n://:@/tpt_files/-ls:InvalidhostnameinURIs3n://:@/tpt_filesUsage:hadoopfs[genericoptions]-ls[-d][-h][-R][...]我的SecretAccessKey包含“/”。这可能是造成这种行为的原因吗?与此同时,我在此服务器上安装了awscli,我可以使用awscli毫无问题地访问我的存储桶(在.aws/credentials中配置的AccessKeyId和SecretAccessKey):aws

amazon-s3 - 我应该如何对 s3 中的数据进行分区以便与 hadoop hive 一起使用?

我有一个s3存储桶,其中包含大约300gb的日志文件,没有特定的顺序。我想使用日期时间戳对这些数据进行分区以便在hadoop-hive中使用,以便与特定日期相关的日志行集中在同一个s3“文件夹”中。例如,1月1日的日志条目将位于与以下命名匹配的文件中:s3://bucket1/partitions/created_date=2010-01-01/file1s3://bucket1/partitions/created_date=2010-01-01/file2s3://bucket1/partitions/created_date=2010-01-01/file3等等转换数据的最佳方式