【发布时间】:2015-08-19 17:19:42
【问题描述】:
我目前的 perl 代码如下所示:
@valid = grep { defined($column_mapping{ $headers[$_] }) } 0 .. $#headers;
...
my $sql = sprintf 'INSERT INTO tablename ( %s ) VALUES ( %s )',
join( ',', map { $column_mapping{$_} } @headers[@valid] ),
join( ',', ('?') x scalar @valid);
my $sth = $dbh->prepare($sql);
...
my @row = split /,/, <INPUT>;
$sth->execute( @row[@valid] );
这基本上是从 csv 数据动态构建一个 sql insert 语句,并且只允许从我的列映射中选择具有正确标题的 csv 数据。
我一直在寻找有关如何一次对多行数据执行插入语句的示例。
我的 perl 脚本需要运行大约几亿条插入语句,而且一次执行一个似乎真的很慢,特别是因为我运行它的服务器只有 6gb 的内存和缓慢的互联网连接。
有没有一种方法可以一次上传多于 1 行的数据?所以一个插入语句可能一次上传 50 行或 100 行?我不知道如何使用 perl DBI。
【问题讨论】:
-
@ThisSuitIsBlackNot 那是我在上面找到的唯一一个,而那家伙建议一次做一个,大多数其他 cmets 都同意,这不是我想要的。他说他不会使用这种方法来执行多个插入语句,大多数答案都说一次执行一个。我想知道是否有一个不是那个的答案
-
阅读已接受答案中的第一种方法,以“您可以根据数组的大小多次插入
(?, ?, ?)”开头。这显示了如何为多行生成单个插入语句。 -
与副本无关:DBI 脚本中的一个常见性能问题是在循环中调用
prepare;您还没有显示所有代码,所以我不知道您是否属于这种情况,但您应该确保只为给定查询调用一次prepare。 -
另外,如果您要插入大量行,
LOAD DATA INFILE可能会比一系列复合插入更快。为此,请像现在一样解析原始数据并将其写入 CSV 文件,然后使用LOAD DATA INFILE加载它。在这一点上,这种方法是否比复合插入更快取决于您的应用程序和数据库设置,但您可以通过这种方式获得显着的性能提升。
标签: mysql sql perl sql-insert dbi