【发布时间】:2025-12-04 14:40:02
【问题描述】:
我有两个并行运行的神经网络。每个都给出一个相同大小的特征图,比如 Nx1。现在我想要这些嵌入的加权平均值,例如 w1 * embed1 + w2 * embed2。我试过这些12。但是权重没有更新。任何帮助,将不胜感激。以下是我的尝试:
class LinearWeightedAvg(nn.Module):
def __init__(self, n_inputs):
super(LinearWeightedAvg, self).__init__()
self.weight1 = Variable(torch.randn(1), requires_grad=True).cuda()
self.weight2 = Variable(torch.randn(1), requires_grad=True).cuda()
def forward(self, inp_embed):
return self.weight1 * inp_embed[0] + self.weight2 * inp_embed[1]
class EmbedBranch(nn.Module):
def __init__(self, feat_dim, embedding_dim):
super(EmbedBranch, self).__init__()
fc_layer1 = fc_layer
def forward(self, x):
x = self.fc_layer1(x)
return x
class EmbeddingNetwork(nn.Module):
def __init__(self, args, N):
super(EmbeddingNetwork, self).__init__()
embedding_dim = N
self.embed1 = EmbedBranch(N, N)
self.embed2 = EmbedBranch(N, N)
self.comb_branch = LinearWeightedAvg(metric_dim)
self.args = args
if args.cuda:
self.cuda()
def forward(self, emb1, emb2):
embeds1 = self.text_branch(emb1)
embeds2 = self.image_branch(emb2)
combined = self.comb_branch([embeds1, embeds2])
return combined
def train_forward(self, embed1, embed2):
combined = self(embed1, embed2)
embeds = model.train_forward(embed1, embed2)
loss = loss_func(embeds, labels)
running_loss.update(loss.data.item())
optimizer.zero_grad()
loss.backward()
我还希望权重在 0-1 范围内。
谢谢,
【问题讨论】:
-
您使用的是什么 pytorch 版本?
Variable()已被弃用,因为当前版本落后了很多版本。 -
我正在使用 PyTorch 1.3.0
标签: pytorch concatenation embedding weighted-average