草庐IT

S3BotoStorage

全部标签

ruby - 使用 ruby​​ SDK 将 S3 存储桶设置为网站

关闭。这个问题不符合StackOverflowguidelines.它目前不接受答案。我们不允许提问寻求书籍、工具、软件库等的推荐。您可以编辑问题,以便用事实和引用来回答。关闭4年前。Improvethisquestion我想按照此处所述将AmazonS3存储桶设置为网站:http://docs.amazonwebservices.com/AmazonS3/latest/API/RESTBucketPUTwebsite.html?r=5271但使用ruby​​API,最好是用于ruby​​的aws-sdk。是否有可能这样做/一个已经支持它的图书馆?在aws-sdk和right-aws中

ruby - 使用 s3 gem + rails 4.1.5 时不允许将 `@@{' 作为类变量名称(SyntaxError)

我知道已经有人问过这种类型的问题了。我使用s3gem将我的文件上传到s3存储桶中。但是在安装s3gem之后,当我启动railsserver时它显示了这个错误:/var/lib/gems/1.9.1/gems/aws-s3-0.6.3/lib/aws/s3/extensions.rb:223:in`class_eval':/var/lib/gems/1.9.1/gems/aws-s3-0.6.3/lib/aws/s3/extensions.rb:223:`@@{'isnotallowedasaclassvariablename(SyntaxError)/var/lib/gems/1.9.

ruby-on-rails - 在 Ruby 中为 S3 Bucket 生成预签名 URL 的推荐方法

我正在尝试在我的Rails服务器上生成一个预签名的url以发送到浏览器,以便浏览器可以上传到S3。aws-sdk-s3似乎是future可以使用的gem。但不幸的是,我还没有找到可以提供清晰度的gem文档。似乎有几种不同的方法可以做到这一点,如果对以下方法的区别有任何指导,我们将不胜感激-使用Aws::S3::Presigner.new(https://github.com/aws/aws-sdk-ruby/blob/master/aws-sdk-core/lib/aws-sdk-core/s3/presigner.rb),但它似乎没有接受对象参数或身份验证凭证。使用Aws::S3::

ruby-on-rails - 自动删除 Amazon S3 中超过 n 天的对象(如何?)

我在AmazonS3中存储了很多图像,使用ruby库(http://amazon.rubyforge.org/)我不关心超过1周的照片,然后为了释放S3中的空间我必须删除这些照片。我知道有一种方法可以删除某个桶中的对象:S3Object.delete'photo-1.jpg','photos'有没有办法自动删除一周前的图片?如果它不存在,我将不得不编写一个守护进程来做到这一点:-(谢谢更新:现在可以了,查看Roberto的回答。 最佳答案 您可以使用AmazonS3对象过期策略AmazonS3-ObjectExpiration|AW

ruby-on-rails - CarrierWave Backgrounder 没有将版本图像上传到 AWS S3

我使用带有RMagic的carrierwave0.10.0gem在AWSS3上上传图像。一切正常,只是在AWSS3上上传花费了太多时间。所以想到使用carrierwavebackgrounder在后台上传图片。我设置了carrierwavebackgrounder(0.4.2)但在这一个中我的原始文件总是上传到S3但该图像的版本永远不会上传到S3。这是我的carrierwave_backgrounder.rbCarrierWave::Backgrounder.configuredo|c|c.backend:sidekiq,queue::carrierwaveend我已经在sidekiq

ruby - 从 Amazon S3 流式传输动态 zip

我正在寻找一种从AmazonS3动态流式下载zip文件的方法。应用程序托管在EC2上,文件存储在S3上。需要让用户能够从一组文件中进行选择,然后将这些文件打包并下载给他们。听说过一些可能可行的Actionscript库(aszip和fzip),或者可以在Ruby或什至PHP中执行此操作。文件不需要任何压缩,zip只是用于将文件捆绑到一个下载中.... 最佳答案 我使用NginxZipModule流式传输本地文件,但可以选择从远程位置流式传输。否则,您可以将它与VFS安装的S3存储一起用作本地文件系统。支持seek-断点续传和加速下载

上传到 S3 时 Ruby Backup gem 失败。 37 分钟后连接重置

备份为250MB。我认为这不是很大,但问题似乎随着规模的增加而增加。从下面的备份gem登录。注意时间跨度;上传大约37分钟后,我收到了连接重置。[2015/10/3009:20:40][message]Storage::S3startedtransferring'2015.10.30.09.20.01.myapp_postgres.tar'tobucket'myapp-backups'.[2015/10/3009:57:06][error]ModelError:BackupforBackupPostgreSQL(myapp_postgres)Failed![2015/10/3009:5

ruby-on-rails - Rubyzip:将 zip 文件直接导出到 S3 而无需将 tmpfile 写入磁盘?

我有这段代码,它将一个zip文件写入磁盘,读回,上传到s3,然后删除文件:compressed_file=some_temp_pathZip::ZipOutputStream.open(compressed_file)do|zos|some_file_list.eachdo|file|zos.put_next_entry(file.some_title)zos.printIO.read(file.path)endend#Writezipfiles3=Aws::S3.new(S3_KEY,S3_SECRET)bucket=Aws::S3::Bucket.create(s3,S3_BUCK

ruby-on-rails - 无法让 Paperclip 正确设置我的 S3 URL

我在Rails4应用程序中使用回形针和aws-sdkgem。我在paperclip.rb配置中定义了:path选项,没有:url选项:Paperclip::Attachment.default_options[:path]=":class/:attachment/:id_partition/:style/:filename"它会像这样保存我上传的图片:http://s3.amazonaws.com/mybucket-development/profiles/avatars/000/000/026/original/image_file_name.png?1420575189没问题,它被

ruby-on-rails - 使用 S3 预签名 URL 上传一个文件,该文件将具有公共(public)读取权限

我正在使用RubyonRails和AWSgem。我可以获得用于上传和下载的预签名URL。但是当我得到URL时没有文件,因此将acl设置为“public-read”在下载url上不起作用。用例是这样的:1,服务器为用户提供了一个路径,用于将内容上传到我的存储桶,如果没有凭据则该存储桶不可读。2,并且该内容需要稍后公开:任何人都可以阅读。澄清一下:我没有上传文件,我提供了URL供我的用户上传。那时我也想给用户一个公众可读的URL。好像我自己上传文件会容易一些。此外,读取URL需要永不过期。 最佳答案 当您为PUT对象请求生成预签名URL