【发布时间】:2020-01-03 17:53:25
【问题描述】:
打印张量给出:
>>> x = torch.tensor([3])
>>> print(x)
tensor([3])
同样索引其.data 给出:
>>> x.data[0]
tensor(3)
我如何获得3 的值?
【问题讨论】:
打印张量给出:
>>> x = torch.tensor([3])
>>> print(x)
tensor([3])
同样索引其.data 给出:
>>> x.data[0]
tensor(3)
我如何获得3 的值?
【问题讨论】:
您可以使用x.item() 从具有一个元素的张量中获取 Python 数字。
【讨论】:
将张量转换为 numpy:
x.numpy()[0]
【讨论】:
x.item() @Vimal Thilak 所写的可能是假设(如您的示例中)张量具有一个元素的最 Pythonic 方式。这种方法最好避免类型之间的额外转换。
x 在 GPU 上,这将失败。最好的做法x[0].item()
x.item() 中获取值始终有效:示例 : CPU 上的单元素张量
x = torch.tensor([3])
x.item()
输出:
3
示例:带有 AD 的 CPU 上的单元素张量
x = torch.tensor([3.], requires_grad=True)
x.item()
输出:
3.0
注意:我们需要对 AD 使用浮点运算
示例 : CUDA 上的单元素张量
x = torch.tensor([3], device='cuda')
x.item()
输出:
3
示例:带有 AD 的 CUDA 上的单元素张量
x = torch.tensor([3.], device='cuda', requires_grad=True)
x.item()
输出:
3.0
示例 : CUDA 上的单元素张量再次使用 AD
x = torch.ones((1,1), device='cuda', requires_grad=True)
x.item()
输出:
1.0
下一个示例将显示驻留在 CPU 上的 PyTorch 张量与 numpy 数组 na 共享相同的存储空间
示例:共享存储
import torch
a = torch.ones((1,2))
print(a)
na = a.numpy()
na[0][0]=10
print(na)
print(a)
输出:
tensor([[1., 1.]])
[[10. 1.]]
tensor([[10., 1.]])
示例:消除共享存储的影响,先复制numpy数组
为了避免共享存储的影响,我们需要将copy() numpy 数组na 转换为一个新的numpy 数组nac。 Numpy copy() 方法创建新的独立存储。
import torch
a = torch.ones((1,2))
print(a)
na = a.numpy()
nac = na.copy()
nac[0][0]=10
print(nac)
print(na)
print(a)
输出:
tensor([[1., 1.]])
[[10. 1.]]
[[1. 1.]]
tensor([[1., 1.]])
现在,只有 nac numpy 数组将被更改,nac[0][0]=10、na 和 a 行将保持原样。
示例:CPU张量requires_grad=True
import torch
a = torch.ones((1,2), requires_grad=True)
print(a)
na = a.detach().numpy()
na[0][0]=10
print(na)
print(a)
输出:
tensor([[1., 1.]], requires_grad=True)
[[10. 1.]]
tensor([[10., 1.]], requires_grad=True)
我们在这里调用:
na = a.numpy()
这将导致:RuntimeError: Can't call numpy() on Tensor that requires grad. Use tensor.detach().numpy() instead.,因为 require_grad=True 的张量由 PyTorch AD 记录。
这就是为什么我们需要在使用numpy() 转换之前先detach()。
示例:CUDA张量requires_grad=False
a = torch.ones((1,2), device='cuda')
print(a)
na = a.to('cpu').numpy()
na[0][0]=10
print(na)
print(a)
输出:
tensor([[1., 1.]], device='cuda:0')
[[10. 1.]]
tensor([[1., 1.]], device='cuda:0')
在这里,我们只是不将 CUDA 张量转换为 CPU。这里没有共享存储的影响。
示例:CUDA张量requires_grad=True
a = torch.ones((1,2), device='cuda', requires_grad=True)
print(a)
na = a.detach().to('cpu').numpy()
na[0][0]=10
print(na)
print(a)
输出:
tensor([[1., 1.]], device='cuda:0', requires_grad=True)
[[10. 1.]]
tensor([[1., 1.]], device='cuda:0', requires_grad=True)
如果没有detach() 方法,将设置错误RuntimeError: Can't call numpy() on Tensor that requires grad. Use tensor.detach().numpy() instead.。
如果没有.to('cpu') 方法TypeError: can't convert cuda:0 device type tensor to numpy. Use Tensor.cpu() to copy the tensor to host memory first. 将被设置。
【讨论】:
您可以使用x.cpu().detach().numpy() 从具有一个元素的张量中获取 Python 数组,然后您可以从该数组中获取一个数字
【讨论】: