【发布时间】:2020-03-27 23:54:35
【问题描述】:
我有一个 Python 脚本存储在 S3 存储桶中。我想让它在 AWS 中运行(大概是一个 EC2 实例)并将其输出(一个 pickle 文件)保存回同一个 S3 存储桶中。
在 Python 脚本本身中,您指定一个文件名并调用 to_pickle:
def metadata_df(search_api,hashtags,since,until,filename,lat_long_only=True):
if os.path.exists(filename):
df = pickle.load(open(filename, 'rb'))
else:
df = ...
df.to_pickle(filename)
return df
...
if __name__ == "__main__":
pickle_name = yesterday+'_'+'tweets.pkl'
metadata_df(api.search, hashtags, since=yesterday,until=today, filename=pickle_name,lat_long_only=True)
...
想知道我是如何做到这一点的(只需要运行一次)。
【问题讨论】:
标签: python amazon-web-services amazon-s3 amazon-ec2 pickle