大型训练数据集导致错误“内存不足”。在选项中输入“帮助内存”。引起的原因:内存不足。在选项中输入“帮助记忆”。

5次浏览(过去30天)
你好!我目前正在进行语义分割项目,遵循链接中提到的代码
“//www.tianjin-qmedu.com/help/vision/ug/semantic-segmentation-using-deep-learning.html”。
我使用2500张原始图像和2500张720x960x3大小和50个类的标记图像在RTX 2080Ti, 11GB GPU上训练语义分割(Resnet网络),但我面临着错误,“内存不足”。在选项中输入“帮助内存”。引起的原因:内存不足。在选项中输入“帮助记忆”。
先谢谢你。
4评论

登录评论。

答案(1)

神骑士
神骑士 2021年3月14日
您是否遵循了示例中的以下建议?:
“CamVid数据集中的图像大小为720 * 960。图像大小的选择是为了在NVIDIA™Titan X(内存为12 GB)上训练时能够容纳足够大的一批图像。如果你的GPU没有足够的内存,或者减少训练批次的大小,你可能需要将图像调整到更小的大小。”
在您的情况下,您正在耗尽CPU内存。也许您正在尝试将整个数据集作为单个变量加载到MATLAB中,而不是将数据存储在文件中?
5个评论
神骑士
神骑士 2021年3月18日
我不是深度学习方面的专家。我的理解是,对于语义分割,你最好裁剪输入,而不是减少采样。然而,模型的训练输入比它用来处理的图像要小是正常的 semanticseg 函数负责这个。

登录评论。

社区寻宝

在MATLAB Central中找到宝藏,并发现社区如何帮助您!

开始狩猎!