【发布时间】:2018-01-16 21:57:55
【问题描述】:
关于具有多个输出的 keras 回归的问题:
你能解释一下这个网之间的区别吗:
两个输入 -> 两个输出
input = Input(shape=(2,), name='bla')
hidden = Dense(hidden, activation='tanh', name='bla')(input)
output = Dense(2, activation='tanh', name='bla')(hidden)
和:两个单输入 -> 两个单输出:
input = Input(shape=(2,), name='speed_input')
hidden = Dense(hidden_dim, activation='tanh', name='hidden')(input)
output = Dense(1, activation='tanh', name='bla')(hidden)
input_2 = Input(shape=(1,), name='angle_input')
hidden_2 = Dense(hidden_dim, activation='tanh', name='hidden')(input_2)
output_2 = Dense(1, activation='tanh', name='bla')(hidden_2)
model = Model(inputs=[speed_input, angle_input], outputs=[speed_output, angle_output])
它们的行为非常相似。其他当我完全分开它们时,这两个网络的行为就像他们应该做的那样。
两个单输出网络比一个更大的有两个输出的网络更容易理解是正常的吗?我认为差异不会像我经历的那样大。
非常感谢:)
【问题讨论】:
标签: python tensorflow neural-network artificial-intelligence keras