【问题标题】:mysqldump line timeout issuesmysqldump 行超时问题
【发布时间】:2014-07-24 19:53:36
【问题描述】:

类似于: Only getting a friendlier mysqldump isn't possible.

我的虚拟主机启动了我的数据库,所以我拥有的最新备份是他们的 mysqldump。换句话说,--extended-insert=FALSE --complete-insert=TRUE 是不可能的,我已经有了 mysqldump。

我遇到的问题是将其重新导入到我的网络主机 phpmyadmin 会使可怜的家伙出局。合情合理。它可以轻松处理 40,000 次插入,但不能将它们全部连续插入。

问题:我正在努力弄清楚如何将这些分成单独的查询。

我已经尝试过每一个并查找替换,但是,正如预期的那样,我犯了错误(这花了我 10 个小时),我最好重新开始,而不是试图找出我在哪里在这个庞大的文件中搞砸了。

长线是这样的:

 INSERT INTO `TABLE_UNICORNS` VALUES ('user',0),('user',1),('user',2),...,('user',20000);

我确实有 MSSQL 管理工作室,但我对将 MySQL 数据库导入 MSSQL 并吐出 MySQL 感到不安。我还可以获得 MySQL dbms(我在 Windows 上)。我可以绞尽脑汁的唯一其他解决方案是程序化解决方案,但我也对此感到不安。 (我并没有取消解决方案的资格,只是大声思考以证明我是在自己尝试)。

【问题讨论】:

  • 还想澄清一下,不是文件大小导致 phpmyadmin 超时,而是行长 - 例如,在一个逗号分隔的行上有 10,000 个查询。
  • 如果你有 CLI 访问机器的权限,你就可以避免整个混乱......mysql 命令行程序没有超时,所以它可以不假思索地吸入转储...... .

标签: mysql phpmyadmin mysqldump


【解决方案1】:

@Charles 是对的。但是,即使对于命令行,查询也太大了!

它们太大了,无法使用任何 Windows 文件查看器或 unix 文件编辑器进行管理。

一旦我意识到我在命令行上,我就记住了我所有的 unix-foo。我使用 CAT 和 SPLIT 将查询复制到较小的文件中,并使用 TOP 检查文件的顶部,以便查看它们是否正确拆分。从那里开始,一切都变得轻而易举。

使用 CLI 代替 PHPMyAdmin 文件上传节省了大量时间,而且很难判断是 unix 实用程序还是 CLI 更胜一筹。

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2013-12-17
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多