【发布时间】:2016-07-18 19:24:33
【问题描述】:
您好,感谢您的时间和考虑。 我正在 Google Cloud Platform / Datalab 中开发 Jupyter Notebook。 我创建了一个 Pandas DataFrame,并希望将此 DataFrame 写入 Google Cloud Storage(GCS) 和/或 BigQuery。我在 GCS 中有一个存储桶,并通过以下代码创建了以下对象:
import gcp
import gcp.storage as storage
project = gcp.Context.default().project_id
bucket_name = 'steve-temp'
bucket_path = bucket_name
bucket = storage.Bucket(bucket_path)
bucket.exists()
我根据 Google Datalab 文档尝试了各种方法,但仍然失败。 谢谢
【问题讨论】:
-
我开发了一个 python 包,专门用于将数据从一个位置(例如 pandas.DataFrame)传输到另一个位置(例如 BigQuery 或 Storage):google-pandas-load.readthedocs.io/en/latest/。此外,它具有 100% 的测试覆盖率。
标签: python google-cloud-storage google-cloud-platform google-cloud-datalab