【发布时间】:2018-04-06 20:44:26
【问题描述】:
我不明白为什么下面的代码既有激活层又有激活参数?线性激活然后 LeakyReLU 有什么意义?最后,损失函数是作用在最后一层还是在最后一层被激活之后?
fashion_model = Sequential()
fashion_model.add(Conv2D(32, kernel_size=(3, 3),activation='linear',input_shape=(28,28,1),padding='same'))
model.add(LeakyReLU(alpha=0.1))
model.add(MaxPooling2D((2, 2),padding='same'))
...more code...
model.add(Dense(num_classes, activation='softmax'))
model.compile(loss=keras.losses.categorical_crossentropy, optimizer=keras.optimizers.Adam(),metrics=['accuracy'])
【问题讨论】:
标签: machine-learning deep-learning keras keras-layer