【发布时间】:2020-07-04 14:25:54
【问题描述】:
我想使用激活函数 relu 并将其参数 alpha 设置为 0.2,但我不知道如何为我的模型完成此操作
import numpy
from tensorflow.keras.layers import Dense, Activation, Dropout, Input
from tensorflow.keras.models import Sequential, Model, load_model
from tensorflow.keras.optimizers import Adam
model_input = Input(shape = x_train[0].shape)
x = Dense(120, activation = 'relu')(model_input)
x = Dropout(0.01)(x)
x = Dense(120, activation = 'relu')(x)
x = Dropout(0.01)(x)
x = Dense(120, activation = 'relu')(x)
x = Dropout(0.01)(x)
model_output = Dense(numpy.shape(y_train)[1])(x)
model = Model(model_input, model_output)
我在这个answer 中看到有一种方法可以做到这一点,它使用model.add()。但我不确定这对我有什么用,你能帮帮我吗?
提前谢谢你!
【问题讨论】:
-
您好,欢迎来到 AI SE!不幸的是,这个问题在这里是题外话,因为你问的是如何在某个库中完成某些事情,这是一个编程问题。见https://ai.stackexchange.com/help/on-topic。我会将这个问题迁移到 SO。