通过伯禹学习平台和Kesci平台,参与了一项14天学习《动手学深度学习》课程,这本书是由李沐等大神编写而成,并提供了配套的视频和源代码。这次活动主要是将里面的Mxnet 框架改成了PyTorch 框架实现了一遍,并由上海交大的老师们再次讲述了一遍。以下内容均是记录学习过程中的一些学习知识点。

Task 01

(1)线性回归

知识点1

在求数值解的优化算法中,小批量随机梯度下降(mini-batch stochastic gradient descent)在深度学习中被广泛使用。

知识点2

《动手学深度学习》PyTorch 版本总结(1)

知识点3

《动手学深度学习》PyTorch 版本总结(1)
知识点4

《动手学深度学习》PyTorch 版本总结(1)

知识点5

《动手学深度学习》PyTorch 版本总结(1)

(2) Softmax与分类模型

主要原理
《动手学深度学习》PyTorch 版本总结(1)
《动手学深度学习》PyTorch 版本总结(1)
《动手学深度学习》PyTorch 版本总结(1)

(3) 多层感知机

**函数的作用:
《动手学深度学习》PyTorch 版本总结(1)

常用的**函数:

ReLU
Tanh
Sigmoid

(4)文本预处理

文本是一类序列数据,一篇文章可以看作是字符或单词的序列,本节将介绍文本数据的常见预处理步骤,预处理通常包括四个步骤:

  1. 读入文本
  2. 分词
  3. 建立字典,将每个词映射到一个唯一的索引(index)
  4. 将文本从词的序列转换为索引的序列,方便输入模型

我们可以通过引入更复杂的规则来解决这些问题,但是事实上,有一些现有的工具可以很好地进行分词,
我们在这里简单介绍其中的两个:spaCyNLTK。重点了解这两种分词。

(5)语言模型

一段自然语言文本可以看作是一个离散时间序列,给定一个长度为TT的词的序列w1,w2,,wTw_1, w_2, \ldots, w_T,语言模型的目标就是评估该序列是否合理,即计算该序列的概率:

P(w1,w2,,wT). P(w_1, w_2, \ldots, w_T).

本节我们介绍基于统计的语言模型,主要是nn元语法(nn-gram)。在后续内容中,我们将会介绍基于神经网络的语言模型。

《动手学深度学习》PyTorch 版本总结(1)

随机采样 重点看图示

《动手学深度学习》PyTorch 版本总结(1)

相邻采样

《动手学深度学习》PyTorch 版本总结(1)

(6)循环神经网络基础

《动手学深度学习》PyTorch 版本总结(1)
《动手学深度学习》PyTorch 版本总结(1)
《动手学深度学习》PyTorch 版本总结(1)

相关文章:

  • 2022-12-23
  • 2022-12-23
  • 2021-05-20
  • 2021-12-11
  • 2022-12-23
  • 2021-07-25
  • 2021-11-23
  • 2021-12-06
猜你喜欢
  • 2021-11-22
  • 2021-07-03
  • 2021-10-03
  • 2021-12-02
  • 2021-09-08
  • 2021-10-23
  • 2022-12-23
相关资源
相似解决方案