pytorch文章/教程

PyTorch是一个开源的Python机器学习库,基于Torch,用于自然语言处理等应用程序。PyTorch的前身是Torch,其底层和Torch框架一样,但是使用Python重新写了很多内容,不仅更加灵活,支持动态图,而且提供了Python接口。它是由Torch7团队开发,是一个以Python优先的深度学习框架,不仅能够实现强大的GPU加速,同时还支持动态神经网络,这是很多主流深度学习框架比如Tensorflow等都不支持的。

PyTorch torch.utils.data.Dataset概述案例详解

目录 PyTorch torch.utils.data.Dataset 介绍与实战案例 一、前言 二、torch.utils.data.Dataset 是什么 1. 干什么用的? 2. 长什么样子? 三、通过继承 torch.utils.data.Dataset 定义自己的数据集类 四、为什 »

pytorch中backward()方法如何自动求梯度

目录 pytorch backward()方法自动求梯度 1、区分源张量和结果张量 2、如何使用backward()方法自动求梯度 pytorch中的梯度计算 什么是梯度? 自动计算梯度和偏导数 梯度的清空 总结 pytorch backward()方法自动求梯度 1、区分源张 »

Pytorch统计参数网络参数数量方式

目录 Pytorch统计参数网络参数数量 Pytorch如何计算网络的参数量 总结 Pytorch统计参数网络参数数量 def get_parameter_number(net): total_num = sum(p.numel() for p in net.parameters »

PyTorch小功能之TensorDataset解读

目录 PyTorch之TensorDataset Pytorch中TensorDataset的快速使用 总结 PyTorch之TensorDataset TensorDataset 可以用来对 tensor 进行打包,就好像 python 中的 zip 功能。 该类通过每一个 tenso »

pytorch的Backward过程用时太长问题及解决

目录 pytorch Backward过程用时太长 问题描述 解决方案 Pytorch backward()简单理解 有几个重要的点 总结 pytorch Backward过程用时太长 问题描述 使用pytorch对网络进行训练的时候遇到一个问题,forward阶段很快(只需要几 »

pytorch中forwod函数在父类中的调用方式解读

目录 pytorch forwod函数在父类中的调用 问题背景 pytorch forward方法调用原理 总结 pytorch forwod函数在父类中的调用 问题背景 最近在研究Detetron2的代码结构时,发现有些网络代码里面没有forward函数,却照样可以推理,深入挖掘 »

pytorch建立mobilenetV3-ssd网络并进行训练与预测方式

目录 Step1:搭建mobilenetV3-ssd网络框架 需要提前准备的函数和类 mobilenetV3_large 调用mobilenetV3的ssd网络 Step2:训练 训练数据预处理(VOC形式的dbb数据) 数据检测 编写训练程序 step3:预测 总结 这篇文章记录 »

从 PyTorch DDP 到 Accelerate 到 Trainer,轻松掌握分布式训练

概述 本教程假定你已经对于 PyToch 训练一个简单模型有一定的基础理解。本教程将展示使用 3 种封装层级不同的方法调用 DDP (DistributedDataParallel) 进程,在多个 GPU 上训练同一个模型: 使用 pytorch.distributed 模块的原生 PyTorch ... »

huggingface

分布式机器学习:异步SGD和Hogwild!算法(Pytorch)

同步算法的共性是所有的节点会以一定的频率进行全局同步。然而,当工作节点的计算性能存在差异,或者某些工作节点无法正常工作(比如死机)的时候,分布式系统的整体运行效率不好,甚至无法完成训练任务。为了解决此问题,人们提出了异步的并行算法。在异步的通信模式下,各个工作节点不需要互相等待,而是以一个或多个全局... ... »

pytorch如何利用ResNet18进行手写数字识别

目录 利用ResNet18进行手写数字识别 先写resnet18.py 再写绘图utils.py 最后是主函数mnist_train.py 总结 利用ResNet18进行手写数字识别 先写resnet18.py 代码如下: import torch from torch im »

pytorch中关于distributedsampler函数的使用

目录 关于distributedsampler函数的使用 1.如何使用这个分布式采样器 2.关于用不用这个采样器的区别 总结 关于distributedsampler函数的使用 1.如何使用这个分布式采样器 在使用distributedsampler函数时,观察loss发现los »

pytorch transform数据处理转c++问题

目录 pytorch transform数据处理转c++ 1.python代码 2.transforms.Resize(256) 3.transforms.ToTensor() 总结 pytorch transform数据处理转c++ python推理代码转c++ sdk过程遇到py »

使用Pytorch如何完成多分类问题

目录 Pytorch如何完成多分类 为什么要用transform 归一化 模型 总结 Pytorch如何完成多分类 多分类问题在最后的输出层采用的Softmax Layer,其具有两个特点:1.每个输出的值都是在(0,1);2.所有值加起来和为1. 假设是最后线性层的输出,则对应的Sof »

Pytorch中关于F.normalize计算理解

目录 关于F.normalize计算理解 动机 简介 举例 Pytorch中normalize应用 示例1:dim=1 示例2:dim=2 示例3:dim=0 总结 关于F.normalize计算理解 动机 最近多次看到该方法出现,于是准备了解一下,搜了后发现原来是所谓的L2 »

pytorch常用函数之torch.randn()解读

目录 pytorch常用函数torch.randn() pytorch torch.chunk(tensor, chunks, dim) 总结 pytorch常用函数torch.randn() torch.randn(*sizes, out=None) → Tensor 功能:从标准正态 »

PyTorch之torch.randn()如何创建正态分布随机数

目录 torch.randn()如何创建正态分布随机数 torch之随机数生成方式 1. 均匀分布 2. 标准正态分布 3.离散正态分布 4.线性间距向量 总结 torch.randn()如何创建正态分布随机数 torch.randn(*size)从均值为0,方差为1的正态分布中获取 »

pytorch中交叉熵损失函数的使用小细节

目录 1.二分类 2.多分类 3. GAN中的实现:二分类 3.1 判别器损失计算 3.2 生成器的损失计算 3.3 小结 总结 目前pytorch中的交叉熵损失函数主要分为以下三类,我们将其使用的要点以及场景做一下总结。 类型一:F.cross_entropy()与torch.nn. »

pytorch和numpy默认浮点类型位数详解

目录 pytorch和numpy默认浮点类型位数 测试代码如下 pytorch和numpy的默认类型与转换问题 总结 pytorch和numpy默认浮点类型位数 numpy中默认浮点类型为64位,pytorch中默认浮点类型位32位 测试代码如下 numpy版本:1.19.2 »