我想在一个事务中将对象添加到 IndexedDB 中的某个表中:
_that.bulkSet = function(data, key) {
var transaction = _db.transaction([_tblName], "readwrite"),
store = transaction.objectStore(_tblName),
ii = 0;
_bulkKWVals.push(data);
_bulkKWKeys.push(key);
if (_bulkKWVals.length == 3000) {
insertNext();
}
function insertNext() {
if (ii < _bulkKWVals.length) {
store.add(_bulkKWVals[ii], _bulkKWKeys[ii]).onsuccess = insertNext;
++ii;
} else {
console.log(_bulkKWVals.length);
}
}
};
看起来它工作正常,但它不是非常优化的方法,尤其是当对象数量非常多时 (~50.000-500.000)。我怎么可能优化它?理想情况下,我想先添加 3000,然后将其从数组中删除,然后再添加 3000,即分块添加。有什么想法吗?
最佳答案
连续插入那么多行不可能获得良好的性能。
我是 IndexedDB dev并拥有您所谈论的规模的 IndexedDB 的实际经验(连续写入数十万行)。它不太漂亮。
在我看来,IDB不适合在需要连续写入大量数据的情况下使用。如果我要构建一个需要大量数据的 IndexedDB 应用程序,我会想办法随着时间的推移慢慢播种它。
问题是写入,我看到的问题是写入速度缓慢,加上它们的 i/o 密集型性质,随着时间的推移会变得更糟。 (在 IDB 中,读取总是快如闪电,物有所值。)
首先,您将从重复使用交易中获得节省。因此,您的第一直觉可能是尝试将所有内容都塞进同一个事务中。但从我在 Chrome 中发现的情况来看,例如,浏览器似乎不喜欢长时间运行的写入,这可能是因为某种机制旨在限制行为不端的选项卡。
我不确定您看到的性能如何,但根据测试的规模,平均数字可能会欺骗您。限制更快的是吞吐量,但如果您尝试连续插入大量数据,请特别注意随时间推移的写入。
我碰巧正在开发一个有几十万行可供我使用的演示,并且有统计数据。在禁用可视化、在 IDB 上运行纯破折号的情况下,这是我现在在 Chrome 32 中看到的单个对象存储上的内容,该对象存储具有单个非唯一索引和一个自动递增的主键。
一个小得多的 27k 行数据集,我每秒看到 60-70 个条目:
* ~30 秒:平均 921 个条目/秒(开始时总是有大量插入),在我采样的那一刻是 62/秒
* ~60 秒:平均 389/秒(持续下降开始超过初始爆发的影响)目前为 71/秒
* ~1:30: 258/秒,此刻 67/秒
* ~2:00(~1/3 完成):平均 188/秒,目前 66/秒
一些具有更小数据集的示例显示出更好的性能,但具有相似的特征。同上更大的数据集 - 效果被大大夸大了,我看到离开多个小时时每秒只有 <1>1>
关于javascript - 优化批量( block )将对象上传到 IndexedDB,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/22247614/
我有一些Ruby代码,如下所示:Something.createdo|x|x.foo=barend我想编写一个测试,它使用double代替block参数x,这样我就可以调用:x_double.should_receive(:foo).with("whatever").这可能吗? 最佳答案 specify'something'dox=doublex.should_receive(:foo=).with("whatever")Something.should_receive(:create).and_yield(x)#callthere
我在理解Enumerator.new方法的工作原理时遇到了一些困难。假设文档中的示例:fib=Enumerator.newdo|y|a=b=1loopdoy[1,1,2,3,5,8,13,21,34,55]循环中断条件在哪里,它如何知道循环应该迭代多少次(因为它没有任何明确的中断条件并且看起来像无限循环)? 最佳答案 Enumerator使用Fibers在内部。您的示例等效于:require'fiber'fiber=Fiber.newdoa=b=1loopdoFiber.yieldaa,b=b,a+bendend10.times.m
我没有理解以下行为(另请参阅inthisSOthread):defdef_testputs'def_test.in'yieldifblock_given?puts'def_test.out'enddef_testdoputs'def_testok'endblock_test=procdo|&block|puts'block_test.in'block.callifblockputs'block_test.out'endblock_test.calldoputs'block_test'endproc_test=procdoputs'proc_test.in'yieldifblock_gi
我需要尝试一些AES片段。我有一些密文c和一个keyk。密文已使用AES-CBC加密,并在前面加上IV。不存在填充,纯文本的长度是16的倍数。所以我这样做:aes=OpenSSL::Cipher::Cipher.new("AES-128-CCB")aes.decryptaes.key=kaes.iv=c[0..15]aes.update(c[16..63])+aes.final它工作得很好。现在我需要手动执行CBC模式,所以我需要单个block的“普通”AES解密。我正在尝试这个:aes=OpenSSL::Cipher::Cipher.new("AES-128-ECB")aes.dec
我在使用自定义RailsFormBuilder时遇到了问题,从昨天晚上开始我就发疯了。基本上我想对我的构建器方法之一有一个可选block,以便我可以在我的主要content_tag中显示其他内容。:defform_field(method,&block)content_tag(:div,class:'field')doconcatlabel(method,"Label#{method}")concattext_field(method)capture(&block)ifblock_given?endend当我在我的一个Slim模板中调用该方法时,如下所示:=f.form_field:e
我从用户Hirolau那里找到了这段代码:defsum_to_n?(a,n)a.combination(2).find{|x,y|x+y==n}enda=[1,2,3,4,5]sum_to_n?(a,9)#=>[4,5]sum_to_n?(a,11)#=>nil我如何知道何时可以将两个参数发送到预定义方法(如find)?我不清楚,因为有时它不起作用。这是重新定义的东西吗? 最佳答案 如果您查看Enumerable#find的文档,您会发现它只接受一个block参数。您可以将它发送两次的原因是因为Ruby可以方便地让您根据它的“并行赋
我明白了defa(&block)block.call(self)end和defa()yieldselfend导致相同的结果,如果我假设有这样一个blocka{}。我的问题是-因为我偶然发现了一些这样的代码,它是否有任何区别或者是否有任何优势(如果我不使用变量/引用block):defa(&block)yieldselfend这是一个我不理解&block用法的具体案例:defrule(code,name,&block)@rules=[]if@rules.nil?@rules 最佳答案 我能想到的唯一优点就是自省(introspecti
我遇到了一个非常奇怪的问题,我很难解决。在我看来,我有一个与data-remote="true"和data-method="delete"的链接。当我单击该链接时,我可以看到对我的Rails服务器的DELETE请求。返回的JS代码会更改此链接的属性,其中包括href和data-method。再次单击此链接后,我的服务器收到了对新href的请求,但使用的是旧的data-method,即使我已将其从DELETE到POST(它仍然发送一个DELETE请求)。但是,如果我刷新页面,HTML与"new"HTML相同(随返回的JS发生变化),但它实际上发送了正确的请求类型。这就是这个问题令我困惑的
考虑一下:现在这些情况:#output:http://domain.com/?foo=1&bar=2#output:http://domain.com/?foo=1&bar=2#output:http://domain.com/?foo=1&bar=2#output:http://domain.com/?foo=1&bar=2我需要用其他字符串输出URL。我如何保证&符号不会被转义?由于我无法控制的原因,我无法发送&。求助!把我的头发拉到这里:\编辑:为了澄清,我实际上有一个像这样的数组:@images=[{:id=>"fooid",:url=>"http://
我目前正在使用带有Carrierwavegem的Rails3.2将文件上传到AmazonS3。现在我需要能够处理用户提交的大于5GB的文件,同时仍然使用Carrierwavegem。Carrierwave或Fog是否有任何其他gem或分支可以处理5GB以上的文件上传到S3?编辑:我不想重写一个完整的Rails上传解决方案,所以像这样的链接没有帮助:https://gist.github.com/908875. 最佳答案 我想出了如何做到这一点,并且现在可以正常工作了。在正确的config/environment文件中,添加以下内容以