草庐IT

S3NativeFileSystem

全部标签

iOS – 同步上传到 AWS S3

所有aws-sdk-ios示例都使用AWSS3TransferManager来异步上传数据。例如:https://github.com/awslabs/aws-sdk-ios-samples/blob/master/S3TransferManager-Sample/Swift/S3TransferManagerSampleSwift/UploadViewController.swift#L81现在通常这很好,但由于其他原因我的工作已经在NSOperation子类中,所以我想同步上传到S3以保持简单(否则,我会需要实现一个异步的NSOperation,并且有更多样板...)有人知道怎么做

hadoop - 大量的S3路径,为什么Hadoop需要这么长时间才能启动?

我有一个Hadoop作业,它有大约60kS3输入路径。这项工作大约需要45分钟才能开始。同样的工作,只有约3kS3输入路径几乎立即开始。为什么有大量输入路径会导致作业启动时间过长? 最佳答案 答案与FileInputPath.addInputPath(...)的实现方式有关。如果你看一下来源here,您会看到它实际上进行了字符串连接,以将所有这些路径保存到一个文件中。调用addInputPaths(...)只是调用addInputPath,所以那里没有节省。我最终调用了FileInputPath.setInputPaths(Job,

hadoop - Sqoop + S3 + Parquet 导致 Wrong FS 错误

尝试使用Sqoop将Parquet格式的数据导入S3时,如下:bin/sqoopimport--connect'jdbc:[conn_string]'--table[table]--target-dirs3a://bucket-name/--hive-drop-import-delims--as-parquetfile...我收到以下错误:ERRORtool.ImportTool:ImportedFailed:WrongFS:s3a://bucket-name/,expected:hdfs://localhost:9000我在导入非parquet数据或直接通过HDFS使用s3a时没有问

带有隐藏 key 对的 Hadoop distcp 到 S3a

如何隐藏访问AmazonS3的ACCESS_ID_KEY和SECRET_ACCESS_KEY?我知道将它添加到core-site.xml,但也许有不同的解决方案。因为使用这种方法,集群中的每个用户都将使用相同的key运行distcp。也许有一些解决方案,比如将它存储在每个集群用户的某个属性文件中?谢谢。 最佳答案 请看我的HCCpost在此用例中使用HadoopCredentialAPI。 关于带有隐藏key对的Hadoopdistcp到S3a,我们在StackOverflow上找到一个

hadoop - 如何在 S3 上指定 Hive EXTERNAL TABLE 数据的文件大小

我可以在Hive中创建一个EXTERNALTABLE,其中数据以Gzip格式存储在S3存储桶中。但是,这些文件非常大(每个超过6GB)。能否配置Hive使EXTERNALTABLE中的文件具有特定大小,比如512MB? 最佳答案 这对我来说听起来很奇怪,默认情况下,我的外部表通常有大约300MB的文件大小。无论如何,最简单的调整方法是使用PARTITIONBY键(可能是基于时间戳的东西),这将强制文件变小,并且具有使数据更容易的附加优势查询。此外,您应该考虑使用像Parquet这样的可拆分格式,因为这样文件大小就不再重要了。

hadoop - 在 EMR 3.10 中添加步骤或引导操作以将文件从本地复制到 s3

我正在使用AmazonEMR3.10将文件从本地复制到AmazonS3...我在参数中使用“script-runner.jar”,我在参数中提到了一个命令sudoawss3cp/home/hadoop/conf/hdfs-site.xmls3://testbucket/myfolder/--recursive....但是该步骤失败并抛出以下异常:Exceptioninthread"main"java.lang.RuntimeException:Localfiledoesnotexist.atcom.amazon.elasticmapreduce.scriptrunner.ScriptR

hadoop - 你可以选择 boto3 s3 协议(protocol)吗?

显然,普通的s3uri协议(protocol)几乎已被弃用。这是boto3使用的吗?我们可以选择新的首选方法s3n或s3a吗?来自AmazonS3wiki:Ablock-basedfilesystembackedbyS3.Filesarestoredasblocks,justliketheyareinHDFS.Thispermitsefficientimplementationofrenames.Thisfilesystemrequiresyoutodedicateabucketforthefilesystem-youshouldnotuseanexistingbucketcontai

hadoop - 如何根据 S3 中的特定模式修改文件内容

我有许多json文件(下面给出的示例)以压缩格式存在于S3文件夹(比如s3://data/)中,如foo.json.gz、foo1.json.gz、foo2.json.gz。其中一个类别(例如1010)被错误分配,需要将所有文件更改为1020。我们如何进行此更改并使用修改后的内容在S3中重新打包这些文件?foo.json{"flower":"lilly","animal":"cat","category":"1010"}{"flower":"rose","animal":"dog","category":"1000"}{"flower":"daisy","animal":"cat","

scala - 将 DataFrame 作为文本文件加载到 HDFS 和 S3

这个问题在这里已经有了答案:WritesingleCSVfileusingspark-csv(16个答案)关闭5年前。我正在尝试使用以下代码将DataFrame作为文本格式文件加载到HDFS和S3中。DataFrame名称为finalData。valtargetPath="/user/test/File"valnow=Calendar.getInstance().getTime()valformatter=newSimpleDateFormat("yyyyMMddHHmmss")valtimeStampAfterFormatting=formatter.format(now)valta

hadoop - 尽管 hadoop 访问有效,但在 EMR 上将 spark 与 s3 结合使用失败

这个问题在这里已经有了答案:SparkreadfilefromS3usingsc.textFile("s3n://...)(14个答案)关闭4年前。我正在尝试访问s3://路径spark.read.parquet("s3://")我得到了这个错误Py4JJavaError:Anerroroccurredwhilecallingo31.parquet.:java.io.IOException:NoFileSystemforscheme:s3但是,运行以下行hadoopfs-ls有效...所以我猜这可能是hadoop和spark之间的配置问题如何解决?编辑阅读建议的答案后,我尝试将硬编码的