【发布时间】:2020-05-11 00:03:27
【问题描述】:
我有一个 Lambda 函数,可以将特定的 CSV 文件从 S3 导入 MySQL。但是,CSV 的文件大小约为 1 GB。当我运行此代码时,它不会处理并超时。
//s3 to rds
const fs = require("fs");
const AWS = require('aws-sdk');
var mysql = require('mysql');
var config = require('./config.json');
const s3 = new AWS.S3({
accessKeyId: 'XXXXXXXXXXXXXXX',
secretAccessKey: 'XXXXXXXXXXXXXXXXXXXXXXXXXXxx'
});
var filePath = `localfilepath`;
var pool = mysql.createPool({
host: config.dbhost,
user: config.dbuser,
password: config.dbpassword,
database: config.dbname
});
pool.getConnection((err, connection) => {
if (err) throw err;
console.log("Connected!" + connection);
var s3Params = {
Bucket: '<your_bucket_name>',
Key: '<your_key>'
};
s3.getObject(s3Params, function(err, result) {
if (err) {
throw new Error(err);
} else {
console.log('file stored successfully', result);
fs.createWriteStream(filePath).write(result.Body);
connection.query('TRUNCATE TABLE <table_name>', (err, result) => {
if (err) {
throw new Error(err);
} else {
console.log('table truncated');
var query = `LOAD DATA LOCAL INFILE '<file_name>' INTO table <table_name> FIELDS TERMINATED BY ',' ENCLOSED BY '"' IGNORE 1 LINES `;
connection.query(query, function(err, result) {
if (err) throw err;
console.log("Result: " + result);
connection.release();
fs.unlinkSync(filePath);
console.log('file deleted');
});
}
});
}
});
})
我怎样才能使它工作?
【问题讨论】:
-
1.我没有看到您实际上将文件保存在任何地方。它似乎正在将其加载到内存中。 2. 在 Lambda 运行时环境中可用于保存文件的总空间为半 Gig,因此您的文件太大而无法与 AWS Lambda 一起使用。
-
执行此操作的选项有哪些?
-
在上传到 S3 之前将文件拆分为更小的文件,或者使用 ECS、EKS 或 EC2 来运行导入而不是 Lambda。
-
是否可以使用 Lambda 拆分文件?恐怕我不能使用 EC2 或任何其他服务。只是 Lambda。
-
您可以尝试流式传输对象并一次写入一部分。请参阅此处的“检索对象的字节范围”示例:docs.aws.amazon.com/AWSJavaScriptSDK/latest/AWS/…
标签: node.js amazon-web-services aws-lambda amazon-rds