我正在尝试从具有主/聚集索引的 InnoDB MySQL 表中删除大量行(> 1000 万,它大约是表中所有记录的 1/3)。
字段 id 是主/聚集索引,它是连续的,没有间隙。至少应该是,我中间没有删除记录。但是有可能某些插入查询失败并且 innodb 分配了一些未使用的 id(我不确定这是不是真的)。我只删除不再需要的旧记录。表包含 varchar 列,因此行没有固定大小。
我的第一次尝试:
DELETE FROM `table` WHERE id<=10000000
它因大 io 操作而失败。似乎是 mysql 杀死了这个查询并回滚了所有更改。查询执行的大约时间为 6 小时,回滚时间大致相同。 我最大的错误是事务日志大小是标准的 5mb,请注意。它必须放大。
第二次尝试按 10 000 条记录分 block 删除,例如:
DELETE FROM `table` WHERE id<=10000;
COMMIT;
DELETE FROM `table` WHERE id<=20000;
COMMIT;
等等。从一开始的查询执行时间约为 10 秒(在笔记本电脑上)。执行时间逐渐增加,执行 6 小时后,每个查询大约需要 300 秒。
第三次尝试进行平均执行时间少于 1 秒的查询。 php代码:
protected function deleteById($table, $id) {
$MinId = $this->getMinFromTable($table, 'id');
$PackDeleteCount= $this->PackDeleteCount;
$timerTotal = new Timer();
$delCountTotal = 0;
$delCountReport = 0;
$delInfo = array();
$PackMinTime = round($this->PackDeleteTime - $this->PackDeleteTime*$this->PackDeleteDiv, 3);
$PackMaxTime = round($this->PackDeleteTime + $this->PackDeleteTime*$this->PackDeleteDiv, 3);
$this->LogString(sprintf('Del `%s`, PackMinTime: %s; PackMaxTime: %s', $table, $PackMinTime, $PackMaxTime));
for (; $MinId < $id;) {
$MinId += $PackDeleteCount;
$delCountReport += $PackDeleteCount;
if ($MinId > $id) {
$MinId = $id;
}
$timer = new Timer();
$sql = sprintf('DELETE FROM `%s` WHERE id<=%s', $table, $MinId);
$this->s->Query($sql, __FILE__, __LINE__);
$delCount = $this->s->AffectedRows();
$this->s->CommitT();
$RoundTime = round($timer->end(), 3);
$delInfo[] = array(
'time' => $RoundTime,
'rows' => $PackDeleteCount,
);
$delCountTotal += $delCount;
if ($delCountReport >= $this->PackDeleteReport) {
$delCountReport = 0;
$delSqlCount = count($delInfo);
$EvTime = 0;
$PackTime = 0;
$EvCount = 0;
$PackCount = 0;
foreach ($delInfo as $v) {
$PackTime += $v['time'];
$PackCount += $v['rows'];
}
$EvTime = round($PackTime/$delSqlCount, 2);
$PackTime = round($PackTime, 2);
$EvCount = round($PackCount/$delSqlCount);
$TotalTime = $this->readableTime(intval($timerTotal->end()));
$this->LogString(sprintf('Del `%s`, Sql query count: %d; Time: %s; Count: %d; Evarage Time %s; Evarage count per delete: %d; Del total: %s; Del Total Time: %s; id <= %s', $table, $delSqlCount, $PackTime, $PackCount, $EvTime, $EvCount, $delCountTotal, $TotalTime, $MinId));
$delInfo = array();
}
$PackDeleteCountOld = $PackDeleteCount;
if ($RoundTime < $PackMinTime) {
$PackDeleteCount = intval($PackDeleteCount + $PackDeleteCount*(1 - $RoundTime/$this->PackDeleteTime));
} elseif ($RoundTime > $PackMaxTime) {
$PackDeleteCount = intval($PackDeleteCount - $PackDeleteCount*(1 - $this->PackDeleteTime/$RoundTime));
}
//$this->LogString(sprintf('Del `%s`, round time: %s; row count old: %d; row count new: %d', $table, $RoundTime, $PackDeleteCountOld, $PackDeleteCount));
}
$this->LogString(sprintf('Finished del `%s`: time: %s', $table, round($timerTotal->end(), 2)));
}
它有一些依赖性,但它们是不言自明的,可以很容易地根据标准进行更改。 我将仅解释此处使用的输入变量:
$table - target table, where rows needs to be deleted
$id - all records up to this id should be deleted
$MinId - Minimal id in the target table
$this->PackDeleteCount - Initial count of records, to start from. Then it recalculates row count to be deleted each new query.
$this->PackDeleteTime - desirable query execution time in average. I used 0.5
$this->PackDeleteDiv - acceptable deviation from $this->PackDeleteTime. In percentage. I used 0.3
$this->PackDeleteReport - Each N records should print statistic information about deleting
该变体性能稳定。
性能较差的原因是数据库引擎必须对受影响的叶子中的所有记录数据进行物理排序。这是我的理解,如果您的知识更深入,欢迎您添加对实际情况的详细描述。或许会给出一些新的思路。
问题:是否可以计算叶子上的行分布并删除整个叶子甚至分支,从而使数据库引擎不必对数据求助? 也许您对这种情况的性能优化有一些其他想法。
最佳答案
我遇到过几次这个问题,通常我会沿着创建一个分区(或首先创建多个分区)的路线进行,因为这将减少 INNODB 对大型删除查询所需的 IO,而不必重建整个索引树 - 然后一次删除 1000 - 1500 个 block 。
这也是练习:
关于php - 删除大量数据和主索引,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/23887812/
我主要使用Ruby来执行此操作,但到目前为止我的攻击计划如下:使用gemsrdf、rdf-rdfa和rdf-microdata或mida来解析给定任何URI的数据。我认为最好映射到像schema.org这样的统一模式,例如使用这个yaml文件,它试图描述数据词汇表和opengraph到schema.org之间的转换:#SchemaXtoschema.orgconversion#data-vocabularyDV:name:namestreet-address:streetAddressregion:addressRegionlocality:addressLocalityphoto:i
我有一个对象has_many应呈现为xml的子对象。这不是问题。我的问题是我创建了一个Hash包含此数据,就像解析器需要它一样。但是rails自动将整个文件包含在.........我需要摆脱type="array"和我该如何处理?我没有在文档中找到任何内容。 最佳答案 我遇到了同样的问题;这是我的XML:我在用这个:entries.to_xml将散列数据转换为XML,但这会将条目的数据包装到中所以我修改了:entries.to_xml(root:"Contacts")但这仍然将转换后的XML包装在“联系人”中,将我的XML代码修改为
查看Ruby的CSV库的文档,我非常确定这是可能且简单的。我只需要使用Ruby删除CSV文件的前三列,但我没有成功运行它。 最佳答案 csv_table=CSV.read(file_path_in,:headers=>true)csv_table.delete("header_name")csv_table.to_csv#=>ThenewCSVinstringformat检查CSV::Table文档:http://ruby-doc.org/stdlib-1.9.2/libdoc/csv/rdoc/CSV/Table.html
我发现ActiveRecord::Base.transaction在复杂方法中非常有效。我想知道是否可以在如下事务中从AWSS3上传/删除文件:S3Object.transactiondo#writeintofiles#raiseanexceptionend引发异常后,每个操作都应在S3上回滚。S3Object这可能吗?? 最佳答案 虽然S3API具有批量删除功能,但它不支持事务,因为每个删除操作都可以独立于其他操作成功/失败。该API不提供任何批量上传功能(通过PUT或POST),因此每个上传操作都是通过一个独立的API调用完成的
有时我需要处理键/值数据。我不喜欢使用数组,因为它们在大小上没有限制(很容易不小心添加超过2个项目,而且您最终需要稍后验证大小)。此外,0和1的索引变成了魔数(MagicNumber),并且在传达含义方面做得很差(“当我说0时,我的意思是head...”)。散列也不合适,因为可能会不小心添加额外的条目。我写了下面的类来解决这个问题:classPairattr_accessor:head,:taildefinitialize(h,t)@head,@tail=h,tendend它工作得很好并且解决了问题,但我很想知道:Ruby标准库是否已经带有这样一个类? 最佳
在Ruby中是否有Gem或安全删除文件的方法?我想避免系统上可能不存在的外部程序。“安全删除”指的是覆盖文件内容。 最佳答案 如果您使用的是*nix,一个很好的方法是使用exec/open3/open4调用shred:`shred-fxuz#{filename}`http://www.gnu.org/s/coreutils/manual/html_node/shred-invocation.html检查这个类似的帖子:Writingafileshredderinpythonorruby?
我正在尝试使用Curbgem执行以下POST以解析云curl-XPOST\-H"X-Parse-Application-Id:PARSE_APP_ID"\-H"X-Parse-REST-API-Key:PARSE_API_KEY"\-H"Content-Type:image/jpeg"\--data-binary'@myPicture.jpg'\https://api.parse.com/1/files/pic.jpg用这个:curl=Curl::Easy.new("https://api.parse.com/1/files/lion.jpg")curl.multipart_form_
无论您是想搭建桌面端、WEB端或者移动端APP应用,HOOPSPlatform组件都可以为您提供弹性的3D集成架构,同时,由工业领域3D技术专家组成的HOOPS技术团队也能为您提供技术支持服务。如果您的客户期望有一种在多个平台(桌面/WEB/APP,而且某些客户端是“瘦”客户端)快速、方便地将数据接入到3D应用系统的解决方案,并且当访问数据时,在各个平台上的性能和用户体验保持一致,HOOPSPlatform将帮助您完成。利用HOOPSPlatform,您可以开发在任何环境下的3D基础应用架构。HOOPSPlatform可以帮您打造3D创新型产品,HOOPSSDK包含的技术有:快速且准确的CAD
我正在尝试找到一种方法来规范化字符串以将其作为文件名传递。到目前为止我有这个:my_string.mb_chars.normalize(:kd).gsub(/[^\x00-\x7F]/n,'').downcase.gsub(/[^a-z]/,'_')但第一个问题:-字符。我猜这个方法还有更多问题。我不控制名称,名称字符串可以有重音符、空格和特殊字符。我想删除所有这些,用相应的字母('é'=>'e')替换重音符号,并将其余的替换为'_'字符。名字是这样的:“Prélèvements-常规”“健康证”...我希望它们像一个没有空格/特殊字符的文件名:“prelevements_routin
本教程将在Unity3D中混合Optitrack与数据手套的数据流,在人体运动的基础上,添加双手手指部分的运动。双手手背的角度仍由Optitrack提供,数据手套提供双手手指的角度。 01 客户端软件分别安装MotiveBody与MotionVenus并校准人体与数据手套。MotiveBodyMotionVenus数据手套使用、校准流程参照:https://gitee.com/foheart_1/foheart-h1-data-summary.git02 数据转发打开MotiveBody软件的Streaming,开始向Unity3D广播数据;MotionVenus中设置->选项选择Unit