【发布时间】:2026-01-24 02:15:01
【问题描述】:
我正在将 TF2 研究对象检测 API 与来自模型动物园的官方模型一起使用。但是,当我尝试训练大型模型(例如,较大的 Efficient 网络模型之一)和/或当我想使用大批量(例如 > 32)时,我的 GPU 内存就会用完。
现在我正在考虑租用一些云 GPU 或使用第二个 GPU 升级我的本地硬件。这个想法是在多个 GPU 上训练 TF2 模型。但是,在我花钱之前,我想知道这是否能解决我的问题。
那么,当一个人在多个 GPU 上训练 TF2 模型(通过对象检测 API)时,是否也会“组合”它们的内存,以便我可以训练更大的模型和/或使用更大的批量大小?
【问题讨论】:
标签: python tensorflow gpu object-detection-api