【发布时间】:2021-08-25 13:34:38
【问题描述】:
我有三个不同的 .csv 数据集,我通常使用 pandas 读取这些数据集并训练深度学习模型。每个数据都是一个 n x m 矩阵,其中 n 是样本数,m 是特征数。读取数据后,我进行了一些重塑,然后使用 feed_dict 将它们提供给我的深度学习模型:
data1 = pd.DataFrame(np.random.uniform(low=0, high=1, size=(10,3)), columns=['A', 'B', 'C'])
data2 = pd.DataFrame(np.random.uniform(low=0, high=1, size=(10,3)), columns=['A', 'B', 'C'])
data3 = pd.DataFrame(np.random.uniform(low=0, high=1, size=(10,3)), columns=['A', 'B', 'C'])
data = pd.concat([data1, data2, data2], axis=1)
# Some deep learning model that work with data
# An optimizer
with tf.compat.v1.Session() as sess:
sess.run(init)
sess.run(optimizer, feed_dict={SOME VARIABLE: data})
但是我的数据现在太大而无法放入内存中,我想知道如何使用 tf.data 而不是使用 pandas 来读取数据。抱歉,如果我提供的脚本是伪代码而不是我的实际代码。
【问题讨论】:
标签: python tensorflow deep-learning tensorflow2.0 tf.data.dataset