草庐IT

S3Client

全部标签

scala - 在 Apache Spark 中按列分区到 S3

有我们想要从具有JSON的S3读取文件的用例。然后,基于特定的JSON节点值,我们希望对数据进行分组并将其写入S3。我能够读取数据,但找不到关于如何根据JSONkey对数据进行分区然后上传到S3的好例子。任何人都可以提供任何示例或指向可以帮助我处理此用例的教程吗?创建数据框后我得到了我的数据模式:root|--customer:struct(nullable=true)||--customerId:string(nullable=true)|--experiment:string(nullable=true)|--expiryTime:long(nullable=true)|--par

amazon-s3 - 将目录作为压缩文件从 Elastic MapReduce 上传到 S3

我想将EMR本地文件系统中的目录作为压缩文件上传到s3。有没有比我目前使用的方法更好的方法来解决这个问题?是否可以将ZipOutputStream作为Reducer输出返回?谢谢zipFolderAndUpload("target","target.zip","s3n://bucketpath/");staticpublicvoidzipFolderAndUpload(StringsrcFolder,StringzipFile,Stringdst)throwsException{//ZipsadirectoryFileOutputStreamfileWriter=newFileOutp

hadoop - 使用 Spark 读取 S3 文件时出现 NullPointerException

我正在尝试使用Spark读取S3文件并出现以下异常:java.lang.NullPointerExceptionatorg.apache.hadoop.fs.s3native.NativeS3FileSystem.getFileStatus(NativeS3FileSystem.java:433)atorg.apache.hadoop.fs.Globber.getFileStatus(Globber.java:57)atorg.apache.hadoop.fs.Globber.glob(Globber.java:248)atorg.apache.hadoop.fs.FileSystem

eclipse - 使用 scala 将 spark 作业从 eclipse 提交到 yarn-client

我是spark和scala的新手,我很难以YARN客户端的身份提交Spark作业。通过sparkshell(sparksubmit)执行此操作没有问题,同样适用于:首先在eclipse中创建一个spark作业,然后将其编译成jar并通过内核shell使用sparksubmit,例如:spark-submit--classebicus.WordCount/u01/stage/mvn_test-0.0.1.jar但是用Eclipse直接编译提交给YARN好像比较难。我的项目设置如下:我的集群正在运行CDHcloudera5.6。我有一个Maven项目,使用Scala,Myclasspath

[1228]Python prometheus-client使用方式

文章目录安装prometheus_client基本使用介绍应用实例收集CPU使用率指标收集自定义指标Python封装调用github:https://github.com/prometheus/client_python安装prometheus_client使用pip工具可以非常方便地安装prometheus_client:pipinstallprometheus-client基本使用介绍prometheus_client提供了丰富的API,可以用于定义和注册metrics,并根据需要暴露这些metrics的接口。fromprometheus_clientimportCounter,Gauge

hadoop - 无法从 Hadoop 访问公共(public) S3 存储桶

我正在使用Hadoop处理GoogleBooksngram,它们作为Hadoop序列文件存储在AmazonS3中。Hadoop包括从S3读取的功能(使用S3存储桶作为虚拟“文件系统”),只需在文件名上指定s3://或s3n://协议(protocol)即可。不幸的是,它需要您设置您的AWS访问key和secretkey。由于我想读取的存储桶是公开的,所以我没有任何key可以使用。如果我使用自己的key,则无法从ngrams存储桶中读取(因为它不属于我的帐户)。我如何从Hadoop使用存储在公共(public)S3存储桶中的文件,而无需自己重新托管文件(这会变得非常昂贵,因为有几TB的数

渲染存储在S3中的降价文件,上传了神社 - 轨道

我正在使用Shrine将Rails应用程序中的文件上传到S3。一切都很好,但是我不知道如何使用RedCarpetGem显示该文件。例如,我可以这样做:而且工作正常。但是如果我这样做:向我展示了S3的下载链接。如何获得文件内容而不是文件链接?看答案拨电至@rfile.rfile返回aShrine::UploadedFile对象,除了仅仅是其他方便的方法#url。在这种方法上是#read,检索文件的内容:但是,在这种情况下,将打开和读取文件,但不关闭。所以最好打电话#open用块,打电话#read在屈服的io对象上,可以整齐地写成

hadoop - s3distcp 在显示 100% 后挂起

为了尝试解决performanceissues使用AmazonEMR,我尝试使用s3distcp将文件从S3复制到我的EMR集群以进行本地处理。作为第一个测试,我从一个目录复制一天的数据,2160个文件,使用--groupBy选项将它们折叠成一个(或几个)文件。工作似乎运行得很好,向我展示了map/reduce进度到100%,但此时进程挂起并且再也没有回来。我怎样才能弄清楚发生了什么?源文件是存储在S3中的GZipped文本文件,每个大约30kb。这是一个普通的AmazonEMR集群,我从主节点的shell运行s3distcp。hadoop@ip-xxx:~$hadoopjar/hom

hadoop - 如何在 aws us-east-2 上将 s3a 与 spark 2.1.0 一起使用?

背景我一直在努力为自己获取一个灵活的设置,以便在aws上使用spark和dockerswarm模式。我一直在使用的docker镜像配置为使用最新的spark,当时是2.1.0和Hadoop2.7.3,可在jupyter/pyspark-notebook获得。.这是有效的,我一直在测试我计划使用的各种连接路径。我遇到的问题是与s3交互的正确方式的不确定性。我一直在跟踪如何使用s3a为spark提供依赖项以连接到awss3上的数据。协议(protocol),对比s3n协议(protocol)。我终于找到了hadoopawsguide并认为我正在关注如何提供配置。但是,我仍然收到400Bad

hadoop - 设备异常、亚马逊 EMR 介质实例和 S3 上没有剩余空间

我在AmazonEMR上运行MapReduce作业,它创建40个输出文件,每个大约130MB。最后9个reduce任务因“设备上没有剩余空间”异常而失败。这是集群配置错误的问题吗?作业运行没有问题,输入文件更少,输出文件更少,reducer更少。任何帮助都感激不尽。谢谢!完整堆栈跟踪如下:Error:java.io.IOException:Nospaceleftondeviceatjava.io.FileOutputStream.writeBytes(NativeMethod)atjava.io.FileOutputStream.write(FileOutputStream.java: