【问题标题】:Working with large arrays on google colab Python在 google colab Python 上处理大型数组
【发布时间】:2021-11-02 14:24:49
【问题描述】:

我想在 google colab 中创建一个大小为 100k x 100k 的 numpy.zeros 数组。每当我尝试执行此操作时,RAM 都会崩溃。有什么方法可以使用磁盘空间并创建一个吗?另外,我必须通过向它添加值来对其执行操作。

import numpy as np
arr = np.zeros((100000,100000))
arr

【问题讨论】:

    标签: arrays numpy ram large-data diskspace


    【解决方案1】:

    np.zeros() 正在尝试分配 80GB 的 RAM 以适应 100k x 100k 数组,这对您的实例不可用。您尝试改用np.empty()

    import numpy as np
    arr = np.empty((100000,100000))
    arr
    

    这会给你:

     array([[0., 0., 0., ..., 0., 0., 0.],
           [0., 0., 0., ..., 0., 0., 0.],
           [0., 0., 0., ..., 0., 0., 0.],
           ...,
           [0., 0., 0., ..., 0., 0., 0.],
           [0., 0., 0., ..., 0., 0., 0.],
           [0., 0., 0., ..., 0., 0., 0.]])
    

    【讨论】:

    • 是的,这仅适用于创建数组。但是当我尝试执行任何操作时,RAM 就会崩溃。
    猜你喜欢
    • 2020-10-15
    • 2018-08-05
    • 2020-01-23
    • 2018-10-04
    • 1970-01-01
    • 1970-01-01
    • 2018-07-05
    • 2020-06-14
    • 2022-01-18
    相关资源
    最近更新 更多