【问题标题】:how convolutional autoencoder learns multiple class? (ex digit data)卷积自编码器如何学习多个类? (前数字数据)
【发布时间】:2023-08-03 03:20:01
【问题描述】:

我知道 CNN 自动编码器的工作原理,但突然觉得很奇怪。 数字数据有 10 个类别,这意味着自动编码器不仅可以学习二进制,还可以学习多个类别。 但是,我认为自动编码器只能学习一类...... 有没有人来解释这个? :)

cnn 自动编码器示例(数字数据):https://blog.keras.io/building-autoencoders-in-keras.html

【问题讨论】:

  • 为什么是r 标签?
  • @desertnaut 还有 r 个用户可以使用 R keras 使用自动编码器 :)
  • 确实如此,但是为什么要使用python 标签呢?另一方面,如果您的问题一般是关于自动编码器的,您应该只发布没有任何语言特定标签的帖子(尽管在这种情况下,问题很可能在这里偏离主题,可以说是您的问题)......
  • @desertnaut 谢谢。不管标签是什么,我也不明白你的问题。不管是r还是python都无所谓。

标签: keras autoencoder


【解决方案1】:

在此示例中,数据集中的类不相关。自动编码器只是尝试使输出图像与输入图像尽可能相似。

【讨论】:

  • 感谢您的评论。如果是这样,如果我在自动编码器中学习小狗和猫的图像,我会成为一个只学习小狗和猫的自动编码器吗?例如,你会把大象的形象放在你的脑海中并表现出它很奇怪吗?
  • 我的意思是,学习小狗和猫图像的自动编码器能否将小狗猫识别为真,将另一种动物(如大象)识别为假?
【解决方案2】:

谢谢大家, 我只是尝试我的假设,我意识到它确实有效。 也就是说,我将 (0,1) 数字作为 A 类, (0,1,2) 作为 B 类进行了自动编码器。 然后经过学习,重建的图像显示数字图像“2”与0或1相比非常奇怪。因此,“2”与输入图像(0,1)不相似。 正如@ml_is_just_statistics 所说,自动编码器只是将输入图像学习为一个类。

【讨论】: