pytorch文章/教程

PyTorch是一个开源的Python机器学习库,基于Torch,用于自然语言处理等应用程序。PyTorch的前身是Torch,其底层和Torch框架一样,但是使用Python重新写了很多内容,不仅更加灵活,支持动态图,而且提供了Python接口。它是由Torch7团队开发,是一个以Python优先的深度学习框架,不仅能够实现强大的GPU加速,同时还支持动态神经网络,这是很多主流深度学习框架比如Tensorflow等都不支持的。

PyTorch基础之torch.nn.Conv2d中自定义权重问题

目录 torch.nn.Conv2d中自定义权重 torch.nn.Conv2d()用法讲解 用法 参数 相关形状 总结 torch.nn.Conv2d中自定义权重 torch.nn.Conv2d函数调用后会自动初始化weight和bias,本文主要涉及 如何自定义weight和b »

Pytorch损失函数torch.nn.NLLLoss()的使用

目录 Pytorch损失函数torch.nn.NLLLoss() 交叉熵计算公式 nn.NLLLoss 计算公式 log_softmax nn.NLLLoss nn.CrossEntropyLoss 总结 Pytorch损失函数torch.nn.NLLLoss() 在各种深度学习框架 »

PyTorch中grid_sample的使用及说明

目录 关于grid_sample的使用 下面将介绍具体的例子 torch.nn.functional.grid_sample() 注意点 细节 总结 关于grid_sample的使用 grid_sample底层是应用双线性插值,把输入的tensor转换为指定大小。 那它和interpo »

Pytorch实现将label变成one hot编码的两种方式

目录 前言 使用scatter_获得one hot 编码 使用tensor.index_select获得one hot编码 第二种针对分割网络的one_hot编码 总结 由于Pytorch不像TensorFlow有谷歌巨头做维护,很多功能并没有很高级的封装,比如说没有tf.one_hot函数。 »

Pytorch中实现CPU和GPU之间的切换的两种方法

目录 方法一:.to(device) 1.不知道电脑GPU可不可用时: 2.指定GPU时 3.指定cpu时: 方法二: 总结: 如何在pytorch中指定CPU和GPU进行训练,以及cpu和gpu之间切换 由CPU切换到GPU,要修改的几个地方: 网络模型、损失函数、数据(输入,标 »

pytorch 配置详细过程

#torch github 项目多 方便,api好调用 cpu版本 ###装torch 安装最新版本的就可以。 ###torchvision 要版本对应 算法: torchvision版本号= torch版本号第一个数字-1.torch版本号第二个数字+1.torch版本号第三个数字 所以我的就是: ... »

Pytorch:单卡多进程并行训练

在深度学习的项目中,我们进行单机多进程编程时一般不直接使用multiprocessing模块,而是使用其替代品torch.multiprocessing模块。它支持完全相同的操作,但对其进行了扩展。Python的multiprocessing模块可使用fork、spawn、forkserver三种方 »

orion-orion

PyTorch 迁移学习实战

目录 1. 实验环境 2. 实验目的 3. 相关原理 4. 实验步骤 4.1 数据收集 4.2 数据预处理 4.3 创建模型 4.4 结论 1. 实验环境 Jupyter Notebook Python 3.7 PyTorch 1.4.0 2. 实验目的 迁移学习,让机器拥有能 »

pytorch-gpu安装的经验与教训

首先说明 本文并不是安装教程,网上有很多,这里只是自己遇到的一些问题 我是以前安装的tensorflow-gpu的,但是发现现在的学术论文大部分都是用pytorch复现的,因此才去安装的pytorch-gpu 查看自己安装的CUDA nvcc -V 这里我提供一个安装tensorflo »

安装pytorch-gpu的经验与教训

首先说明 本文并不是安装教程,网上有很多,这里只是自己遇到的一些问题 我是以前安装的tensorflow-gpu的,但是发现现在的学术论文大部分都是用pytorch复现的,因此才去安装的pytorch-gpu 查看自己安装的CUDA nvcc -V 这里我提供一个安装tensorflow时所用 »

kk-style

PyTorch如何加速数据并行训练?分布式秘籍大揭秘

PyTorch 在学术圈里已经成为最为流行的深度学习框架,如何在使用 PyTorch 时实现高效的并行化? 在芯片性能提升有限的今天,分布式训练成为了应对超大规模数据集和模型的主要方法。本文将向你介绍流行深度学习框架 PyTorch 最新版本( v1.5)的分布式数据并行包的设计、实现和评估。 »

amosyang

Pytorch Mac GPU 训练与测评实例

目录 正文 加速原理 环境配置 跑一个MNIST 跑一下VAE模型 一个愿景 正文 Pytorch的官方博客发了Apple M1 芯片 GPU加速的文章,这是我期待了很久的功能,因此很兴奋,立马进行测试,结论是在MNIST上,速度与P100差不多,相比CPU提速1.7倍。当然这只是 »

pytorch cuda安装报错的解决方法

目录 一、按照cuda版本在官网找命令 二、换源 三、Bug描述 四、解决方法 五、查看是否使用GPU 总结 2022.12.8在win+cuda11.8下安装最新Pytorch GPU版时遇到包不兼容的问题,该文记录安装的整个流程 一、按照cuda版本在官网找命令 Pytorch官网命 »

Pytorch基础-tensor数据结构

torch.Tensor 是一种包含单一数据类型元素的多维矩阵,类似于 numpy 的 array。 Tensor 可以使用 torch.tensor() 转换 Python 的 list 或序列数据生成,生成的是dtype 默认是 torch.FloatTensor。 ... »

armcvai

Pytorch基础-张量基本操作

Pytorch 中,张量的操作分为结构操作和数学运算,其理解就如字面意思。结构操作就是改变张量本身的结构,数学运算就是对张量的元素值完成数学运算。 ... »

armcvai

Pytorch建模过程中的DataLoader与Dataset

处理数据样本的代码会因为处理过程繁杂而变得混乱且难以维护,在理想情况下,我们希望数据预处理过程代码与我们的模型训练代码分离,以获得更好的可读性和模块化,为此,PyTorch提供了torch.utils.data.DataLoader 和 torch.utils.data.Dataset两个类用于数据... ... »

transforms模块—PyTorch图像处理与数据增强方法

计算机视觉任务中,对图像的变换(Image Transform)往往是必不可少的操作,例如在迁移学习中,需要对图像尺寸进行变换以使用预训练网络的输入层,又如对数据进行增强以丰富训练数据。 作为深度学习领域的主流框架,pytorch中提供了丰富的图像变换API。本文将对pytorch中torchvi... ... »

Pytorch中torch.repeat_interleave()函数使用及说明

目录 torch.repeat_interleave()函数解析 1.函数说明 2. 函数原型 3. 函数功能 4. 输入参数 5. 注意 6. 代码例子 7. 与torch.repeat()函数区别 总结 torch.repeat_interleave()函数解析 1.函数说明 »