草庐IT

mysql - 大型 (1G) MySQL 数据库需要 30 小时才能导入 WAMP,加上 Null 错误

coder 2023-10-18 原文

我已经为此工作了几天,非常沮丧。

有一个 Magento 数据库,大约 1Gb 和 3MM 记录 - 需要进行备份并将其导入到我的本地机器上。本地机器在具有 16 Gb RAM 的全新游戏装备规范上运行 WAMP)。使用 PHPMyAdmin 将数据库导出到 .sql 文件中。

强烈建议使用 Saw BigDump 导入大型数据库。还可以找到一个链接,上面写着推荐使用 include column names in every INSERT statement 的语法。完毕。 ( http://www.atomicsmash.co.uk/blog/import-large-sql-databases/ )

开始导入。几个小时过去了(大约 3-4 小时)。得到一个错误:Page unavailable, or wrong url!更多搜索,尝试建议(主要在这里: http://www.sitehostingtalk.com/f16/bigdump-error-page-unavailable-wrong-url-56939/ )删除 $linespersession到 500 并添加 $delaypersession 300。再次运行,更多小时,同样的错误。

然后我将数据库重新导出到两个 .sql 转储(一个保存所有超过 100K 记录的大表),重复,同样的错误。所以我不再使用 Bigdump。

接下来是命令行!使用 Console2 我跑了 source mydump.sql . 30 小时 过去。然后报错:
ERROR 1231 (42000): Variable 'character_set_client' can't be set to the value of 'NULL' ERROR 1231 (42000): Variable 'collation_connection' can't be set to the value of 'NULL'
更多的搜索,真正多样的解释。我尝试使用之前的拆分文件 - 再次运行它,同样的错误。

我无法弄清楚是什么导致了这两个错误。我知道我在两个不同的导出中遇到了相同的错误。我知道有一些表在 1-300,000 行之间。我也不认为 30 小时是正常的(在尖叫的快速机器上)仅导入 1Gb,但我可能是错的。

我应该尝试哪些其他选择?是导出格式吗?应该压缩还是不压缩?有没有更快的导入方式?有什么办法可以让这个过程更快吗?

谢谢!

编辑

感谢一些搜索和@Bill Karwin 的建议,这就是我所在的位置:

  • 使用 ssh 获取一个新的 mysqldump 并下载它。
  • 导入了 10 次不同的数据库。每次都快得多(5-10 分钟),因此修复了荒谬的导入时间。
  • 使用命令行,>source dump.sql
  • 但是,来自同一个 dump.sql 文件的每次导入都有不同数量的记录。在 300 万条记录中,它们相差 600 到 200,000 条记录。其中一个导入的记录比原始记录多 12,000 条。我试过设置和不设置 foreign_key_checks = 0;我尝试使用完全相同的设置多次运行相同的查询。每次的行数都不一样。

  • 我现在也收到这些错误:
    ERROR 1231 (42000): Variable 'time_zone' can't be set to the value of 'NULL' ERROR 1231 (42000): Variable 'sql_mode' can't be set to the value of 'NULL' ERROR 1231 (42000): Variable 'foreign_key_checks' can't be set to the value of 'NULL' ERROR 1231 (42000): Variable 'unique_checks' can't be set to the value of 'NULL' ERROR 1231 (42000): Variable 'character_set_client' can't be set to the value of 'NULL' ERROR 1231 (42000): Variable 'collation_connection' can't be set to the value of 'NULL' ERROR 1231 (42000): Variable 'sql_notes' can't be set to the value of 'NULL'
    从我读到的内容来看,这些似乎并不那么重要。还有其他警告,但我似乎无法确定它们是什么。

    有任何想法吗?

    编辑:解决方案已在此处删除并在下面作为单独的帖子列出

    引用文献:

    https://serverfault.com/questions/244725/how-to-is-mysqls-net-buffer-length-config-viewed-and-reset

    http://dev.mysql.com/doc/refman/5.1/en/server-system-variables.html#sysvar_net_buffer_length

    Make phpMyAdmin show exact number of records for InnoDB tables?

    Export a large MySQL table as multiple smaller files

    https://dba.stackexchange.com/questions/31197/why-max-allowed-packet-is-larger-in-mysqldump-than-mysqld-in-my-cnf

    最佳答案

    不,这不是正常的恢复时间,除非您在一台 15 岁的计算机上运行 MySQL,或者您试图通过非常慢的网络将数据库写入共享卷。我可以在大约 45 分钟内导入大约该大小的数据转储,即使在 x-small EC2 实例上也是如此。

    将变量设置为 NULL 的错误似乎是 BigDump 的限制。它在 BigDump FAQ 中提到.我从未见过使用命令行客户端恢复转储文件时出现的这些错误。

    所以这里有一些建议:

  • 确保您的本地 MySQL 数据目录位于本地连接的驱动器上——而不是网络驱动器上。
  • 使用 mysql命令行客户端,而不是 phpMyAdmin 或 BigDump。
    mysql> source mydump.sql
    
  • 转储文件大多是一长串INSERT语句,可以阅读Speed of INSERT Statements有关加速 INSERT 的提示。请务必阅读它链接到的子页面。
  • 例如,当您导出数据库时,检查“在每个 INSERT 语句中插入多行”的单选按钮(这与 BigDump 不兼容,但在 mysql 客户端中使用 source 时性能更好)。
  • 建议将耐久性设置用于生产用途,但它们会带来一些性能损失。听起来您只是想让开发实例运行,因此降低持久性可能是值得的,至少在您进行导入时是这样。 MySQL 社区经理 Morgan Tocker 的博客中对降低持久性做了很好的总结:Reducing MySQL durability for testing .


  • 重新回答您的新问题和错误:

    很多人在导入由 phpMyAdmin 或 Drupal 或其他工具创建的大型转储文件时都会报告类似的错误。

    最可能的原因是转储文件中的某些数据大于 max_allowed_packet .此 MySQL 配置设置是单个 SQL 语句或单个数据行的最大大小。当您在单个 SQL 语句中超过此值时,服务器将中止该 SQL 语句并关闭您的连接。 mysql 客户端尝试自动重新连接并恢复转储文件的来源,但有两个副作用:
  • 您的某些数据行无法加载。
  • 保留 @time_zone 的 session 变量导入期间的其他设置将丢失,因为它们的范围仅限于 session 。当重新连接发生时,您将获得一个新 session 。

  • 解决方法是增加您的 max_allowed_packet . MySQL 5.6 上的默认级别为 4MB,早期版本仅为 1MB。您可以找出此配置的当前值:
    mysql> SELECT @@max_allowed_packet;
    +----------------------+
    | @@max_allowed_packet |
    +----------------------+
    |              4194304 |
    +----------------------+
    

    您可以将其增加到 1GB:
    mysql> set global max_allowed_packet = 1024*1024*1024;
    

    然后再次尝试导入:
    mysql> source mydump.sql
    

    此外,如果您使用类似 SHOW TABLE STATUS 的命令测量表的大小。或查询 INFORMATION_SCHEMA.TABLES ,你应该知道TABLE_ROWS count 只是一个估计值——它可能相差很远,比如表实际行数的 +/- 10%(或更多)。即使您没有更改表中的任何数据,报告的数字甚至可能会不时更改。计算表中行数的唯一正确方法是使用 SELECT COUNT(*) FROM SomeTable .

    关于mysql - 大型 (1G) MySQL 数据库需要 30 小时才能导入 WAMP,加上 Null 错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/22540266/

    有关mysql - 大型 (1G) MySQL 数据库需要 30 小时才能导入 WAMP,加上 Null 错误的更多相关文章

    1. ruby - 解析 RDFa、微数据等的最佳方式是什么,使用统一的模式/词汇(例如 schema.org)存储和显示信息 - 2

      我主要使用Ruby来执行此操作,但到目前为止我的攻击计划如下:使用gemsrdf、rdf-rdfa和rdf-microdata或mida来解析给定任何URI的数据。我认为最好映射到像schema.org这样的统一模式,例如使用这个yaml文件,它试图描述数据词汇表和opengraph到schema.org之间的转换:#SchemaXtoschema.orgconversion#data-vocabularyDV:name:namestreet-address:streetAddressregion:addressRegionlocality:addressLocalityphoto:i

    2. ruby - Ruby 有 `Pair` 数据类型吗? - 2

      有时我需要处理键/值数据。我不喜欢使用数组,因为它们在大小上没有限制(很容易不小心添加超过2个项目,而且您最终需要稍后验证大小)。此外,0和1的索引变成了魔数(MagicNumber),并且在传达含义方面做得很差(“当我说0时,我的意思是head...”)。散列也不合适,因为可能会不小心添加额外的条目。我写了下面的类来解决这个问题:classPairattr_accessor:head,:taildefinitialize(h,t)@head,@tail=h,tendend它工作得很好并且解决了问题,但我很想知道:Ruby标准库是否已经带有这样一个类? 最佳

    3. ruby - 我如何添加二进制数据来遏制 POST - 2

      我正在尝试使用Curbgem执行以下POST以解析云curl-XPOST\-H"X-Parse-Application-Id:PARSE_APP_ID"\-H"X-Parse-REST-API-Key:PARSE_API_KEY"\-H"Content-Type:image/jpeg"\--data-binary'@myPicture.jpg'\https://api.parse.com/1/files/pic.jpg用这个:curl=Curl::Easy.new("https://api.parse.com/1/files/lion.jpg")curl.multipart_form_

    4. 世界前沿3D开发引擎HOOPS全面讲解——集3D数据读取、3D图形渲染、3D数据发布于一体的全新3D应用开发工具 - 2

      无论您是想搭建桌面端、WEB端或者移动端APP应用,HOOPSPlatform组件都可以为您提供弹性的3D集成架构,同时,由工业领域3D技术专家组成的HOOPS技术团队也能为您提供技术支持服务。如果您的客户期望有一种在多个平台(桌面/WEB/APP,而且某些客户端是“瘦”客户端)快速、方便地将数据接入到3D应用系统的解决方案,并且当访问数据时,在各个平台上的性能和用户体验保持一致,HOOPSPlatform将帮助您完成。利用HOOPSPlatform,您可以开发在任何环境下的3D基础应用架构。HOOPSPlatform可以帮您打造3D创新型产品,HOOPSSDK包含的技术有:快速且准确的CAD

    5. FOHEART H1数据手套驱动Optitrack光学动捕双手运动(Unity3D) - 2

      本教程将在Unity3D中混合Optitrack与数据手套的数据流,在人体运动的基础上,添加双手手指部分的运动。双手手背的角度仍由Optitrack提供,数据手套提供双手手指的角度。 01  客户端软件分别安装MotiveBody与MotionVenus并校准人体与数据手套。MotiveBodyMotionVenus数据手套使用、校准流程参照:https://gitee.com/foheart_1/foheart-h1-data-summary.git02  数据转发打开MotiveBody软件的Streaming,开始向Unity3D广播数据;MotionVenus中设置->选项选择Unit

    6. 使用canal同步MySQL数据到ES - 2

      文章目录一、概述简介原理模块二、配置Mysql使用版本环境要求1.操作系统2.mysql要求三、配置canal-server离线下载在线下载上传解压修改配置单机配置集群配置分库分表配置1.修改全局配置2.实例配置垂直分库水平分库3.修改group-instance.xml4.启动监听四、配置canal-adapter1修改启动配置2配置映射文件3启动ES数据同步查询所有订阅同步数据同步开关启动4.验证五、配置canal-admin一、概述简介canal是Alibaba旗下的一款开源项目,Java开发。基于数据库增量日志解析,提供增量数据订阅&消费。Git地址:https://github.co

    7. ruby-on-rails - 创建 ruby​​ 数据库时惰性符号绑定(bind)失败 - 2

      我正在尝试在Rails上安装ruby​​,到目前为止一切都已安装,但是当我尝试使用rakedb:create创建数据库时,我收到一个奇怪的错误:dyld:lazysymbolbindingfailed:Symbolnotfound:_mysql_get_client_infoReferencedfrom:/Library/Ruby/Gems/1.8/gems/mysql2-0.3.11/lib/mysql2/mysql2.bundleExpectedin:flatnamespacedyld:Symbolnotfound:_mysql_get_client_infoReferencedf

    8. STM32读取串口传感器数据(颗粒物传感器,主动上传) - 2

      文章目录1.开发板选择*用到的资源2.串口通信(个人理解)3.代码分析(注释比较详细)1.主函数2.串口1配置3.串口2配置以及中断函数4.注意问题5.源码链接1.开发板选择我用的是STM32F103RCT6的板子,不过代码大概在F103系列的板子上都可以运行,我试过在野火103的霸道板上也可以,主要看一下串口对应的引脚一不一样就行了,不一样的就更改一下。*用到的资源keil5软件这里用到了两个串口资源,采集数据一个,串口通信一个,板子对应引脚如下:串口1,TX:PA9,RX:PA10串口2,TX:PA2,RX:PA32.串口通信(个人理解)我就从串口采集传感器数据这个过程说一下我自己的理解,

    9. SPI接收数据异常问题总结 - 2

      SPI接收数据左移一位问题目录SPI接收数据左移一位问题一、问题描述二、问题分析三、探究原理四、经验总结最近在工作在学习调试SPI的过程中遇到一个问题——接收数据整体向左移了一位(1bit)。SPI数据收发是数据交换,因此接收数据时从第二个字节开始才是有效数据,也就是数据整体向右移一个字节(1byte)。请教前辈之后也没有得到解决,通过在网上查阅前人经验终于解决问题,所以写一个避坑经验总结。实际背景:MCU与一款芯片使用spi通信,MCU作为主机,芯片作为从机。这款芯片采用的是它规定的六线SPI,多了两根线:RDY和INT,这样从机就可以主动请求主机给主机发送数据了。一、问题描述根据从机芯片手

    10. "\0"null 的 Ruby 测试? - 2

      我在破坏脚本的字符串中出现了一些奇怪的字符。据我所知,通过putbadstring到控制台,它们是"\0\0\0\0"。我想对此进行测试,以便我可以忽略它们...但是如何呢?以为这就是blank?和empty?的用途?!?:>badstring="\0"=>"\u0000">badstring.blank?NoMethodError:undefinedmethod`blank?'for"\u0000":Stringfrom(irb):97from/Users/meltemi/.rvm/rubies/ruby-2.0.0-p195/bin/irb:16:in`'>badstring.em

    随机推荐