【问题标题】:Exact model converging on keras-tf but not on keras精确模型在 keras-tf 上收敛,但不在 keras 上
【发布时间】:2019-08-07 14:15:22
【问题描述】:

我正在使用简单的 RNN 在时间序列上预测 EWMA (exponential weighted moving average) formula。已经在here发帖了。

虽然模型使用 keras-tf(来自 tensorflow 导入 keras)完美地收敛,但完全相同的代码无法使用原生 keras(导入 keras)。

收敛模型代码(keras-tf):

from tensorflow import keras
import numpy as np

np.random.seed(1337)  # for reproducibility

def run_avg(signal, alpha=0.2):
    avg_signal = []
    avg = np.mean(signal)
    for i, sample in enumerate(signal):
        if np.isnan(sample) or sample == 0:
            sample = avg
        avg = (1 - alpha) * avg + alpha * sample
        avg_signal.append(avg)
    return np.array(avg_signal)

def train():
    x = np.random.rand(3000)
    y = run_avg(x)
    x = np.reshape(x, (-1, 1, 1))
    y = np.reshape(y, (-1, 1))

    input_layer = keras.layers.Input(batch_shape=(1, 1, 1), dtype='float32')
    rnn_layer = keras.layers.SimpleRNN(1, stateful=True, activation=None, name='rnn_layer_1')(input_layer)
    model = keras.Model(inputs=input_layer, outputs=rnn_layer)

    model.compile(optimizer=keras.optimizers.SGD(lr=0.1), loss='mse')
    model.summary()

    print(model.get_layer('rnn_layer_1').get_weights())
    model.fit(x=x, y=y, batch_size=1, epochs=10, shuffle=False)
    print(model.get_layer('rnn_layer_1').get_weights())

train()

非收敛模型代码:

from keras import Model
from keras.layers import SimpleRNN, Input
from keras.optimizers import SGD

import numpy as np

np.random.seed(1337)  # for reproducibility

def run_avg(signal, alpha=0.2):
    avg_signal = []
    avg = np.mean(signal)
    for i, sample in enumerate(signal):
        if np.isnan(sample) or sample == 0:
            sample = avg
        avg = (1 - alpha) * avg + alpha * sample
        avg_signal.append(avg)
    return np.array(avg_signal)

def train():
    x = np.random.rand(3000)
    y = run_avg(x)
    x = np.reshape(x, (-1, 1, 1))
    y = np.reshape(y, (-1, 1))

    input_layer = Input(batch_shape=(1, 1, 1), dtype='float32')
    rnn_layer = SimpleRNN(1, stateful=True, activation=None, name='rnn_layer_1')(input_layer)
    model = Model(inputs=input_layer, outputs=rnn_layer)


    model.compile(optimizer=SGD(lr=0.1), loss='mse')
    model.summary()

    print(model.get_layer('rnn_layer_1').get_weights())
    model.fit(x=x, y=y, batch_size=1, epochs=10, shuffle=False)
    print(model.get_layer('rnn_layer_1').get_weights())

train()

虽然在 tf-keras 收敛模型中,损失最小化并且权重非常接近 EWMA 公式,但在非收敛模型中,损失会爆炸到 nan。据我所知,唯一的区别是我导入类的方式。

我对两种实现都使用了相同的随机种子。我正在使用 keras 2.2.4 和 tensorflow 版本 1.13.1(包括版本 2.2.4-tf 中的 keras)的 Windows pc、Anaconda 环境。

对此有何见解?

【问题讨论】:

  • 也许你可以通过打印来检查类是否相同。如果它们不同,请尝试找出两者的不同之处。这将是一种快速而肮脏的调查方式。
  • 这些类并不完全相同,因为一个是 tensorflow 中 keras API 的内部实现(据我所知由 google 维护),它是专门为 tensorflow 实现的。第二个“原生”keras 是一个与框架无关的 API,也可以与 theano 一起使用。它们都实现了相同的对象和 API,并假设给出相同的结果,但显然情况并非如此......
  • 有趣的是,只有当SimpleRNN 的参数statefulTrue 时才会发生这种情况。

标签: python tensorflow keras deep-learning


【解决方案1】:

这可能是因为 TF KerasNative Keras 之间的 SimpleRNN 实现存在差异(1 行)。

下面提到的 Line 是在 TF Keras 中实现的,在 Keras 中没有实现。

self.input_spec = [InputSpec(ndim=3)]

这种差异的一个例子是你上面提到的。

我想演示类似的案例,使用 Keras 的Sequential 类。

以下代码适用于 TF Keras:

from tensorflow import keras
import numpy as np
from tensorflow.keras.models import Sequential as Sequential

np.random.seed(1337)  # for reproducibility

def run_avg(signal, alpha=0.2):
    avg_signal = []
    avg = np.mean(signal)
    for i, sample in enumerate(signal):
        if np.isnan(sample) or sample == 0:
            sample = avg
        avg = (1 - alpha) * avg + alpha * sample
        avg_signal.append(avg)
    return np.array(avg_signal)

def train():
    x = np.random.rand(3000)
    y = run_avg(x)
    x = np.reshape(x, (-1, 1, 1))
    y = np.reshape(y, (-1, 1))
    
    # SimpleRNN model
    model = Sequential()
    model.add(keras.layers.Input(batch_shape=(1, 1, 1), dtype='float32'))
    model.add(keras.layers.SimpleRNN(1, stateful=True, activation=None, name='rnn_layer_1'))
    model.compile(optimizer=keras.optimizers.SGD(lr=0.1), loss='mse')
    model.summary()
    
    print(model.get_layer('rnn_layer_1').get_weights())
    model.fit(x=x, y=y, batch_size=1, epochs=10, shuffle=False)
    print(model.get_layer('rnn_layer_1').get_weights())

train()

但是如果我们使用 Native Keras 运行相同的程序,我们会得到如下所示的错误:

TypeError: The added layer must be an instance of class Layer. Found: Tensor("input_1_1:0", shape=(1, 1, 1), dtype=float32)

如果我们替换下面的代码行

model.add(Input(batch_shape=(1, 1, 1), dtype='float32'))

下面的代码,

model.add(Dense(32, batch_input_shape=(1,1,1), dtype='float32'))

即使是带有 Keras 实现的 model 也与 TF Keras 实现几乎相似。

如果您想从代码角度了解两种情况下的实现差异,可以参考以下链接:

https://github.com/tensorflow/tensorflow/blob/r1.14/tensorflow/python/keras/layers/recurrent.py#L1364-L1375

https://github.com/keras-team/keras/blob/master/keras/layers/recurrent.py#L1082-L1091

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 2020-11-30
    • 1970-01-01
    • 2018-06-27
    • 2012-07-07
    • 2017-10-28
    • 2020-05-28
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多