【问题标题】:Semantic Segmentation using deep learning使用深度学习进行语义分割
【发布时间】:2016-09-02 04:57:27
【问题描述】:

我有一张 512x512 的图片。我想对该图像执行逐像素分类。我已经使用 80x80 补丁训练了模型。因此,在测试时,我有 512x512=262144 个补丁,每个补丁的尺寸为 80x80,这种分类太慢了。如何提高测试时间?请帮帮我。

【问题讨论】:

    标签: deep-learning image-segmentation


    【解决方案1】:

    我可能是错的,但是没有很多解决方案可以加快测试阶段,主要是减少神经元的数量以减少操作的数量:

    • 80x80 补丁确实很大,您可能想尝试减小它们的大小并重新训练您的 NN。它已经大大减少了神经元的数量。
    • 分析 NN 权重/输入/输出,以检测在您的 NN 中无关紧要的神经元。例如,它们可能总是返回 0,然后可以从您的 NN 中删除它们。然后,您使用简化的架构重新训练您的 NN。
    • 如果您还没有这样做,那么提供一批(越大越好)补丁比一次提供一个补丁要快得多。

    【讨论】:

    • 尝试使用较小的补丁大小。是的!预测时间现在是 3 分钟/图像(之前大约是 15 分钟/图像)。我还尝试减少全连接层中隐藏节点的数量。但是没有运气,还有其他建议吗?我需要在几秒钟内减少预测..
    • 你有没有看过我提到的第二点。这就是他们在行业中所做的事情,以制造更快的产品。
    • @AvijitDasgupta:您尝试过使用 FCN(全卷积网络)吗?
    • @Harsh 我没有 sudo 访问权限。因此无法在我们的服务器中安装 caffe。使用 Theano。你知道任何基于 Theano 的 FCN 实现吗?
    • @FiReTiTi 好的。我正在努力,会告诉你结果。
    猜你喜欢
    • 2020-04-17
    • 2017-05-20
    • 1970-01-01
    • 2017-11-08
    • 1970-01-01
    • 2017-06-07
    • 2017-06-11
    • 2018-10-25
    • 1970-01-01
    相关资源
    最近更新 更多