PyTorch基础之torch.nn.Conv2d中自定义权重问题
目录 torch.nn.Conv2d中自定义权重 torch.nn.Conv2d()用法讲解 用法 参数 相关形状 总结 torch.nn.Conv2d中自定义权重 torch.nn.Conv2d函数调用后会自动初始化weight和bias,本文主要涉及 如何自定义weight和b »
Pytorch损失函数torch.nn.NLLLoss()的使用
目录 Pytorch损失函数torch.nn.NLLLoss() 交叉熵计算公式 nn.NLLLoss 计算公式 log_softmax nn.NLLLoss nn.CrossEntropyLoss 总结 Pytorch损失函数torch.nn.NLLLoss() 在各种深度学习框架 »
PyTorch中grid_sample的使用及说明
目录 关于grid_sample的使用 下面将介绍具体的例子 torch.nn.functional.grid_sample() 注意点 细节 总结 关于grid_sample的使用 grid_sample底层是应用双线性插值,把输入的tensor转换为指定大小。 那它和interpo »
Pytorch实现将label变成one hot编码的两种方式
目录 前言 使用scatter_获得one hot 编码 使用tensor.index_select获得one hot编码 第二种针对分割网络的one_hot编码 总结 由于Pytorch不像TensorFlow有谷歌巨头做维护,很多功能并没有很高级的封装,比如说没有tf.one_hot函数。 »
Pytorch中实现CPU和GPU之间的切换的两种方法
目录 方法一:.to(device) 1.不知道电脑GPU可不可用时: 2.指定GPU时 3.指定cpu时: 方法二: 总结: 如何在pytorch中指定CPU和GPU进行训练,以及cpu和gpu之间切换 由CPU切换到GPU,要修改的几个地方: 网络模型、损失函数、数据(输入,标 »
PyTorch中torch.tensor()和torch.to_tensor()的区别
目录 前言 1、torch.as_tensor() 2、torch.tensor() 总结 前言 在跑模型的时候,遇到如下报错 UserWarning: To copy construct from a tensor, it is recommended to use sourceTe »
pytorch 配置详细过程
#torch github 项目多 方便,api好调用 cpu版本 ###装torch 安装最新版本的就可以。 ###torchvision 要版本对应 算法: torchvision版本号= torch版本号第一个数字-1.torch版本号第二个数字+1.torch版本号第三个数字 所以我的就是: ... »
Pytorch:单卡多进程并行训练
在深度学习的项目中,我们进行单机多进程编程时一般不直接使用multiprocessing模块,而是使用其替代品torch.multiprocessing模块。它支持完全相同的操作,但对其进行了扩展。Python的multiprocessing模块可使用fork、spawn、forkserver三种方 »
闻其声而知雅意,基于Pytorch(mps/cpu/cuda)的人工智能AI本地语音识别库Whisper(Python3.10)
前文回溯,之前一篇:含辞未吐,声若幽兰,史上最强免费人工智能AI语音合成TTS服务微软Azure(Python3.10接入),利用AI技术将文本合成语音,现在反过来,利用开源库Whisper再将语音转回文字,所谓闻其声而知雅意。 Whisper 是一个开源的语音识别库,它是由Facebook AI ... »
PyTorch 迁移学习实战
目录 1. 实验环境 2. 实验目的 3. 相关原理 4. 实验步骤 4.1 数据收集 4.2 数据预处理 4.3 创建模型 4.4 结论 1. 实验环境 Jupyter Notebook Python 3.7 PyTorch 1.4.0 2. 实验目的 迁移学习,让机器拥有能 »
pytorch-gpu安装的经验与教训
首先说明 本文并不是安装教程,网上有很多,这里只是自己遇到的一些问题 我是以前安装的tensorflow-gpu的,但是发现现在的学术论文大部分都是用pytorch复现的,因此才去安装的pytorch-gpu 查看自己安装的CUDA nvcc -V 这里我提供一个安装tensorflo »
安装pytorch-gpu的经验与教训
首先说明 本文并不是安装教程,网上有很多,这里只是自己遇到的一些问题 我是以前安装的tensorflow-gpu的,但是发现现在的学术论文大部分都是用pytorch复现的,因此才去安装的pytorch-gpu 查看自己安装的CUDA nvcc -V 这里我提供一个安装tensorflow时所用 »
PyTorch如何加速数据并行训练?分布式秘籍大揭秘
PyTorch 在学术圈里已经成为最为流行的深度学习框架,如何在使用 PyTorch 时实现高效的并行化? 在芯片性能提升有限的今天,分布式训练成为了应对超大规模数据集和模型的主要方法。本文将向你介绍流行深度学习框架 PyTorch 最新版本( v1.5)的分布式数据并行包的设计、实现和评估。 »
Pytorch Mac GPU 训练与测评实例
目录 正文 加速原理 环境配置 跑一个MNIST 跑一下VAE模型 一个愿景 正文 Pytorch的官方博客发了Apple M1 芯片 GPU加速的文章,这是我期待了很久的功能,因此很兴奋,立马进行测试,结论是在MNIST上,速度与P100差不多,相比CPU提速1.7倍。当然这只是 »
pytorch cuda安装报错的解决方法
目录 一、按照cuda版本在官网找命令 二、换源 三、Bug描述 四、解决方法 五、查看是否使用GPU 总结 2022.12.8在win+cuda11.8下安装最新Pytorch GPU版时遇到包不兼容的问题,该文记录安装的整个流程 一、按照cuda版本在官网找命令 Pytorch官网命 »
Pytorch基础-tensor数据结构
torch.Tensor 是一种包含单一数据类型元素的多维矩阵,类似于 numpy 的 array。 Tensor 可以使用 torch.tensor() 转换 Python 的 list 或序列数据生成,生成的是dtype 默认是 torch.FloatTensor。 ... »
Pytorch基础-张量基本操作
Pytorch 中,张量的操作分为结构操作和数学运算,其理解就如字面意思。结构操作就是改变张量本身的结构,数学运算就是对张量的元素值完成数学运算。 ... »
Pytorch建模过程中的DataLoader与Dataset
处理数据样本的代码会因为处理过程繁杂而变得混乱且难以维护,在理想情况下,我们希望数据预处理过程代码与我们的模型训练代码分离,以获得更好的可读性和模块化,为此,PyTorch提供了torch.utils.data.DataLoader 和 torch.utils.data.Dataset两个类用于数据... ... »
transforms模块—PyTorch图像处理与数据增强方法
计算机视觉任务中,对图像的变换(Image Transform)往往是必不可少的操作,例如在迁移学习中,需要对图像尺寸进行变换以使用预训练网络的输入层,又如对数据进行增强以丰富训练数据。 作为深度学习领域的主流框架,pytorch中提供了丰富的图像变换API。本文将对pytorch中torchvi... ... »
Pytorch中torch.repeat_interleave()函数使用及说明
目录 torch.repeat_interleave()函数解析 1.函数说明 2. 函数原型 3. 函数功能 4. 输入参数 5. 注意 6. 代码例子 7. 与torch.repeat()函数区别 总结 torch.repeat_interleave()函数解析 1.函数说明 »