【发布时间】:2020-07-01 01:39:56
【问题描述】:
我可以使用dask.dataframe.read_sql_table 来读取数据,例如df = dd.read_sql_table(table='TABLE', uri=uri, index_col='field', npartitions=N)
在 Azure blob 存储中将其保存为 parquet 文件的下一个(最佳)步骤是什么?
根据我的小型研究,有两种选择:
- 在本地保存并使用https://docs.microsoft.com/en-us/azure/storage/common/storage-use-azcopy-blobs?toc=/azure/storage/blobs/toc.json(不适合大数据)
- 我相信adlfs是从blob读取的
- 使用 dask.dataframe.to_parquet 并找出如何指向 blob 容器
- intake 项目(不知道从哪里开始)
【问题讨论】:
标签: azure dask fastparquet intake