【发布时间】:2017-11-10 18:17:56
【问题描述】:
我从一些消息来源听说生成对抗网络是无监督机器学习,但我不明白。生成对抗网络实际上没有受到监督吗?
1) 2-class case Real-against-Fake
确实,必须向鉴别器提供训练数据,这必须是“真实”数据,这意味着我将用 f.e. 标记的数据。 1. 即使没有明确标记数据,也可以通过在第一步中向判别器提供训练数据来隐含地这样做,你告诉判别器是真实的。通过这种方式,你以某种方式告诉鉴别器训练数据的标签。相反,在生成器的第一步生成的噪声数据的标签,生成器知道这是不真实的。
2) 多类案例
但在多类情况下它变得非常奇怪。必须在训练数据中提供描述。明显的矛盾在于,人们对无监督的机器学习算法提供了响应。
【问题讨论】:
-
GAN 的输入是未标记的真实数据。该算法引入了“假”数据,它可以在内部与真实数据区分开来,但不需要人工标记(“监督”)。通过这种方式,它与其他不需要人工标记的无监督方法发挥相同的作用/可以将其应用于尽可能大的未标记数据集。
-
人类仍然需要选择训练数据并因此对其进行隐式标记。无法使用仅显示纪念碑的训练数据生成猫图像。因此,当有人想要生成特定类型的数据时,需要在准备过程中进行监督。
标签: machine-learning neural-network classification