如何将语音数据重塑为 LSTM 输入?
我正在对语音数据中的语音和非语音进行分类,其中包含 3630371 个数据点和 39 个特征。即语音数据的形状是 (3630371, 39)。如何将其重塑为 LSTM 输入。 3D input_shape 必须是什么,或者“Samples”、“Timestep”和“Features”的值是什么。 下列说法正确吗? data.reshape(3630371, 1, 39) LSTM(32, in... »
我正在对语音数据中的语音和非语音进行分类,其中包含 3630371 个数据点和 39 个特征。即语音数据的形状是 (3630371, 39)。如何将其重塑为 LSTM 输入。 3D input_shape 必须是什么,或者“Samples”、“Timestep”和“Features”的值是什么。 下列说法正确吗? data.reshape(3630371, 1, 39) LSTM(32, in... »
我在过去一天了解了LSTM,然后我决定看一个使用Keras 创建它的教程。我看了几个教程,它们都有 model = Sequential() model.add(LSTM(10, input_shape=(1,1))) model.add(Dense(1, activation='linear')) model.compile(loss='mse', optimizer='adam') X,y... »
我正在尝试构建 LSTM 架构来预测患病率(0%-100%)。我的输入是一个尺寸为 4760x10 的数组(每个城镇每个年龄的病人人数,咨询次数.....)我的输出或 y 是发病率。 我是机器学习的新手,我尝试了一些技巧,例如更改优化器、层节点数和 dropout 值,但我的模型没有收敛(最低 mse 为 =616.245)。我还尝试使用“MinMaxScaler”来扩展我的数据。那么你们能否... »
我正在尝试将由双向LSTM 层组成的编码器中的初始状态设置为 0。但是,如果我输入一个 0 的矩阵,我会收到一条错误消息,指出必须使用张量列表初始化双向层(这是有道理的)。当我尝试将这个 0 的矩阵复制到包含其中两个的列表中时(初始化两个 RNNs),我收到输入形状错误的错误。我在这里错过了什么? class Encoder(tf.keras.Model): def __init__(self,... »
我正在使用 MOSI 数据集进行多模态情感分析,目前我只为文本数据集训练模型。对于文本,我使用 300 尺寸的手套嵌入来处理文本。我的总词汇量为 2173,填充序列长度为 30。我的目标数组是 [0,0,0,0,0,0,1],其中最左边是高度 -ve,最右边是高度 +ve。 我正在像这样拆分数据集 X_train, X_test, y_train, y_test = train_test_spl... »
我正在尝试从 Colab 上的 Keras 加载 LSTM 模型并更改其单位,但我收到以下错误:“AttributeError:无法设置属性“单位”,可能是因为它与现有的只读冲突对象的@property。请选择其他名称”。我尝试修改其他图层参数,效果很好。我能做些什么来解决它? 我用来加载模型并修改它的代码: model = keras.models.load_model('model.h5') ... »
我已经在脑海中处理这个想法很长时间了。因此,在 NMT 中,我们在编码器 seq2seq 阶段传入源语言文本,在解码器 seq2seq 阶段传入目标语言文本,系统学习每个单词与其目标语言单词一起出现的条件概率。例如:P(word x|previous n-words)。我们通过教师强制来训练它。 但是如果我再次将输入句子作为输入而不是目标句子传递给解码器阶段会怎样。在这种情况下它会学到什么?我猜... »
我在 tensorflow/keras 中定义了一个 LSTM 模型,如下所示。我只包括与问题有关的相关细节。 t_steps = 60 n_features = 3 def LSTMModel(): input = Input(shape=(t_steps, n_features)) l1 = BatchNormalization()(input) l2 = LSTM(160,... »
在 Tensorflow 中,同一任务在不同的 API 下有许多不同的实现。对于 LSTM 单元,可以找到许多实现,例如, tf.nn.rnn_cell.LSTMCell tf.contrib.rnn.LSTMBlockCell tf.keras.layers.LSTMCell tf.keras.layers.LSTM 我应该选择上述哪个实现?有通用的指导方针吗?例如,始终使用 tf.nn ... »
我有 2 个代码 sn-ps。其中一个训练模型,而另一个不训练。我不想在没有深入了解的情况下在 Github 上提出问题,这浪费了我一天的时间等待不正确的模型进行训练。 这是正确的模型。运行张量流 1.10.1. model = Sequential() # I truncate the string at 20 characters, alphabet listset is a sorted... »
我导出了一个双向 LSTM 用于新闻标题的情绪分析,但是在训练模型时,损失函数值没有提高,保持在 0.6 和 0.7 左右。 当然我做错了什么,我想知道它是否与嵌入层有关。 我以 10 的大小和 30 个单词的句子长度将每个批次迭代地传递到网络中,我的词汇量是 5745,因此经过一次热编码后,这个张量的形状将是 (10, 30, 5745)。 我的嵌入层有 num_embeddings = 57... »
我一直在尝试自定义 LSTM 层以进一步改进。但是在我的自定义 LSTM 之后,池化层出现了一个看起来很正常的错误。 我的环境是: 赢10 keras 2.2.0 python 3.6 回溯(最近一次通话最后一次): 文件“E:/PycharmProjects/dialogResearch/dialog/classifier.py”,第 60 行,在 ... »
我训练并加载了一个 cnn+dense 模型: # load model cnn_model = load_model('my_cnn_model.h5') cnn_model.summary() 输出是这样的(我的图像尺寸为 2 X 3600): _________________________________________________________________ Layer... »
我目前正在尝试使用 Keras(张量流后端)建立一个(LSTM)循环神经网络。 我想使用带有 MC Dropout 的变分 dropout。 我相信已经使用 LSTM 层的“recurrent_dropout”选项实现了变分 dropout,但我没有找到任何方法来设置“training”标志以像经典的 Dropout 层那样设置为 true。... »
我有以下代码: import torch import torch.nn as nn model = nn.Sequential( nn.LSTM(300, 300), nn.Linear(300, 100), nn.ReLU(), nn.Linear(300, 7), ) s = torch.... »
这是我对基本序列到序列 LSTM 的理解。假设我们正在处理问答设置。 你有两组 LSTM(下面的绿色和蓝色)。每组分别共享权重(即 4 个绿色单元格中的每一个都具有相同的权重,并且与蓝色单元格相似)。第一个是多对一LSTM,总结了在最后一个隐藏层/cell memory的问题。 第二组(蓝色)是多对多 LSTM,其权重与第一组 LSTM 不同。输入只是答案句子,而输出是同一个句子移位了。 ... »
LSTM 问题可以表示为 FFNN 问题吗? LSTM 神经网络只是回顾过去。但我也可以取一些(或许多)过去的值并将它们用作 FFNN 的输入特征。 这样,FFNN 可以替代 LSTM 网络吗?如果我可以获取过去的值并将它们用作输入特征,为什么我应该更喜欢 LSTM 而不是 FFNN?... »
这是我手动构建 LSTM 的代码: import tensorflow as tf import numpy as np batch_size = 1 hidden_size = 4 num_steps = 3 input_dim = 5 np.random.seed(123) input = np.ones([batch_size, num_steps, input_dim], dtype=in... »
如果我在用Keras 制作的LSTM 中使用32 的batch_size,损失函数是应用于每个序列然后平均,还是直接应用于所有序列而不考虑每个序列? 提前致谢。... »
我尝试开发一个网络,并使用 python 生成器作为数据提供者。在模型开始拟合之前一切正常,然后我收到此错误: ValueError: `y` argument is not supported when using dataset as input. 我对每一行都进行了校对,我认为问题在于x_test 和y_test 向网络提供的格式。经过数小时的谷歌搜索,并多次更改格式,错误仍然存在。 ... »