本文最后更新于:1 年前
随着时间的推移,深度学习库已经演变成提供越来越粗糙的抽象。 就像半导体设计师从指定晶体管到逻辑电路再到编写代码一样, 神经网络研究人员已经从考虑单个人工神经元的行为转变为从层的角度构思网络, 通常在设计架构时考虑的是更粗糙的块(block)。本章中,我们将深入探索深度学习计算的关键组件, 即模型构建、参数访问与初始化、设计自定义层和块、将模型读写到磁盘, 以及利用GPU实现显著的加速。
层和块
首次介绍神经网络时,我们关注的是具有单一输出的线性模型。 在这里,整个模型只有一个输出。 注意,单个神经网络:
接受一些输入
生成相应的标量输出
具有一组相关 参数 (parameters),更新这些参数可以优化某目标函数。
考虑具有多个输出的网络时, 我们利用矢量化算法来描述整层神经元。 像单个神经元一样:
接受一组输入
生成相应的输出
由一组可调整参数描述。
多层感知机而言,整个模型及其组成层都是这种架构。 整个模型接受原始输入(特征),生成输出(预测), 并包含一些参数(所有组成层的参数集合)。 同样,每个单独的层接收输入(由前一层提供), 生成输出(到下一层的输入),并且具有一组可调参数, 这些参数根据从下一层反向传播的信号进行更新。
研究讨论“比单个层大”但“比整个模型小”的组件更有价值。 例如,在计算机视觉中广泛流行的ResNet-152架构就有数百层, 这些层是由层组 (groups of layers)的重复模式组成。在其他的领域,如自然语言处理和语音, 层组以各种重复模式排列的类似架构现在也是普遍存在。
为了实现这些复杂的网络,我们引入了神经网络块 的概念。 块 (block)可以描述单个层、由多个层组成的组件或整个模型本身。 使用块进行抽象的一个好处是可以将一些块组合成更大的组件, 这一过程通常是递归的。通过定义代码来按需生成任意复杂度的块, 我们可以通过简洁的代码实现复杂的神经网络。
多个层被组合成块,形成更大的模型
从编程的角度来看,块由类 (class)表示。 它的任何子类都必须定义一个将其输入转换为输出的前向传播函数, 并且必须存储任何必需的参数。 注意,有些块不需要任何参数。 最后,为了计算梯度,块必须具有反向传播函数。 在定义我们自己的块时,由于自动微分提供了一些后端实现,我们只需要考虑前向传播函数和必需的参数。
下面的代码生成一个网络,其中包含一个具有256个单元和ReLU激活函数的全连接隐藏层, 然后是一个具有10个隐藏单元且不带激活函数的全连接输出层。
1 2 3 4 5 6 7 8 import torchfrom torch import nnfrom torch.nn import functional as F net = nn.Sequential(nn.Linear(20 , 256 ), nn.ReLU(), nn.Linear(256 , 10 )) X = torch.rand(2 , 20 ) net(X)
我们通过实例化nn.Sequential
来构建我们的模型, 层的执行顺序是作为参数传递的。 简而言之,nn.Sequential
定义了一种特殊的Module
, 即在PyTorch中表示一个块的类, 它维护了一个由Module
组成的有序列表。 注意,两个全连接层都是Linear
类的实例, Linear
类本身就是Module
的子类。 另外,到目前为止,我们一直在通过net(X)
调用我们的模型来获得模型的输出。 这实际上是net.__call__(X)
的简写。 这个前向传播函数非常简单: 它将列表中的每个块连接在一起,将每个块的输出作为下一个块的输入。
自定义块
1 2 3 4 5 6 7 8 9 10 11 12 13 class MLP (nn.Module): def __init__ (self ): super ().__init__() self .hidden = nn.Linear(20 , 256 ) self .out = nn.Linear(256 , 10 ) def forward (self, X ): return self .out(F.relu(self .hidden(X)))
我们首先看一下前向传播函数,它以X
作为输入, 计算带有激活函数的隐藏表示,并输出其未规范化的输出值。 在这个MLP
实现中,两个层都是实例变量。 要了解这为什么是合理的,可以想象实例化两个多层感知机(net1
和net2
), 并根据不同的数据对它们进行训练。 当然,我们希望它们学到两种不同的模型。
接着我们实例化多层感知机的层,然后在每次调用前向传播函数时调用这些层。 注意一些关键细节: 首先,我们定制的__init__
函数通过super().__init__()
调用父类的__init__
函数, 省去了重复编写模版代码的痛苦。 然后,我们实例化两个全连接层, 分别为self.hidden
和self.out
。 注意,除非我们实现一个新的运算符, 否则我们不必担心反向传播函数或参数初始化, 系统将自动生成这些。
块的一个主要优点是它的多功能性。 我们可以子类化块以创建层(如全连接层的类)、 整个模型(如上面的MLP
类)或具有中等复杂度的各种组件。 我们在接下来的章节中充分利用了这种多功能性, 比如在处理卷积神经网络时。
顺序块
Sequential
的设计是为了把其他模块串起来。 为了构建我们自己的简化的MySequential
, 我们只需要定义两个关键函数:
一种将块逐个追加到列表中的函数;
一种前向传播函数,用于将输入按追加块的顺序传递给块组成的“链条”。
下面的MySequential
类提供了与默认Sequential
类相同的功能。
1 2 3 4 5 6 7 8 9 10 11 12 13 class MySequential (nn.Module): def __init__ (self, *args ): super ().__init__() for idx, module in enumerate (args): self ._modules[str (idx)] = module def forward (self, X ): for block in self ._modules.values(): X = block(X) return X
__init__
函数将每个模块逐个添加到有序字典_modules
中。 读者可能会好奇为什么每个Module
都有一个_modules
属性? 以及为什么我们使用它而不是自己定义一个Python列表? 简而言之,_modules
的主要优点是: 在模块的参数初始化过程中, 系统知道在_modules
字典中查找需要初始化参数的子块。
当MySequential
的前向传播函数被调用时, 每个添加的块都按照它们被添加的顺序执行。 现在可以使用我们的MySequential
类重新实现多层感知机。
1 2 net = MySequential(nn.Linear(20 , 256 ), nn.ReLU(), nn.Linear(256 , 10 )) net(X)
MySequential
的用法与之前为Sequential
类编写的代码相同
在前向传播函数中执行代码
并不是所有的架构都是简单的顺序架构。 当需要更强的灵活性时,我们需要定义自己的块。 例如,我们可能希望在前向传播函数中执行Python的控制流。 此外,我们可能希望执行任意的数学运算, 而不是简单地依赖预定义的神经网络层。到目前为止, 我们网络中的所有操作都对网络的激活值及网络的参数起作用。 然而,有时我们可能希望合并既不是上一层的结果也不是可更新参数的项, 我们称之为常数参数 (constant parameter)。 例如,我们需要一个计算函数$f(\mathbf{x},\mathbf{w}) = c \cdot \mathbf{w}^\top \mathbf{x}$的层, 其中$\mathbf{x}$是输入,$\mathbf{w}$是参数, $c$是某个在优化过程中没有更新的指定常量。 因此我们实现了一个FixedHiddenMLP
类,如下所示:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 class FixedHiddenMLP (nn.Module): def __init__ (self ): super ().__init__() self .rand_weight = torch.rand((20 , 20 ), requires_grad=False ) self .linear = nn.Linear(20 , 20 ) def forward (self, X ): X = self .linear(X) X = F.relu(torch.mm(X, self .rand_weight) + 1 ) X = self .linear(X) while X.abs ().sum () > 1 : X /= 2 return X.sum ()
在这个FixedHiddenMLP
模型中,我们实现了一个隐藏层, 其权重(self.rand_weight
)在实例化时被随机初始化,之后为常量。 这个权重不是一个模型参数,因此它永远不会被反向传播更新。 然后,神经网络将这个固定层的输出通过一个全连接层。还用了一个Demo控制流。
1 2 net = FixedHiddenMLP() net(X)
1 2 3 4 5 6 7 8 9 10 11 12 class NestMLP (nn.Module): def __init__ (self ): super ().__init__() self .net = nn.Sequential(nn.Linear(20 , 64 ), nn.ReLU(), nn.Linear(64 , 32 ), nn.ReLU()) self .linear = nn.Linear(32 , 16 ) def forward (self, X ): return self .linear(self .net(X)) chimera = nn.Sequential(NestMLP(), nn.Linear(16 , 20 ), FixedHiddenMLP()) chimera(X)
效率
我们在一个高性能的深度学习库中进行了大量的字典查找、 代码执行和许多其他的Python代码。 Python的问题全局解释器锁 是众所周知的。 在深度学习环境中,我们担心速度极快的GPU可能要等到CPU运行Python代码后才能运行另一个作业。
参数管理
在选择了架构并设置了超参数后,我们就进入了训练阶段。我们的目标是找到使损失函数最小化的模型参数值。 经过训练后,我们将需要使用这些参数来做出未来的预测。 此外,有时我们希望提取参数,以便在其他环境中复用它们, 将模型保存下来,以便它可以在其他软件中执行, 或者为了获得科学的理解而进行检查。我们将介绍以下内容:
访问参数,用于调试、诊断和可视化
参数初始化
在不同模型组件间共享参数
单隐藏层的多层感知机例子:
1 2 3 4 5 6 import torchfrom torch import nn net = nn.Sequential(nn.Linear(4 , 8 ), nn.ReLU(), nn.Linear(8 , 1 )) X = torch.rand(size=(2 , 4 )) net(X)
参数访问
我们从已有模型中访问参数。 当通过Sequential
类定义模型时, 我们可以通过索引来访问模型的任意层。 这就像模型是一个列表一样,每层的参数都在其属性中。
1 print (net[2 ].state_dict())
我们可以检查第二个全连接层的参数。
首先,这个全连接层包含两个参数,分别是该层的权重和偏置。 两者都存储为单精度浮点数(float32)。 注意,参数名称允许唯一标识每个参数,即使在包含数百个层的网络中也是如此。
目标参数
每个参数都表示为参数类的一个实例。 要对参数执行任何操作,首先我们需要访问底层的数值。
1 2 3 print (type (net[2 ].bias))print (net[2 ].bias)print (net[2 ].bias.data)
参数是复合的对象,包含值、梯度和额外信息。 这就是我们需要显式参数值的原因。 除了值之外,我们还可以访问每个参数的梯度。 在上面这个网络中,由于我们还没有调用反向传播,所以参数的梯度处于初始状态。
1 2 net[2 ].weight.grad == None
一次性访问所有参数
当我们需要对所有参数执行操作时,逐个访问它们可能会很麻烦。 当我们处理更复杂的块(例如,嵌套块)时,情况可能会变得特别复杂, 因为我们需要递归整个树来提取每个子块的参数。
1 2 3 4 5 6 print (*[(name, param.shape) for name, param in net[0 ].named_parameters()])print (*[(name, param.shape) for name, param in net.named_parameters()]) ('weight' , torch.Size([8 , 4 ])) ('bias' , torch.Size([8 ])) ('0.weight' , torch.Size([8 , 4 ])) ('0.bias' , torch.Size([8 ])) ('2.weight' , torch.Size([1 , 8 ])) ('2.bias' , torch.Size([1 ]))
1 net.state_dict()['2.bias' ].data
从嵌套块收集参数
如果我们将多个块相互嵌套,参数命名约定是如何工作的。
1 2 3 4 5 6 7 8 9 10 11 12 13 def block1 (): return nn.Sequential(nn.Linear(4 , 8 ), nn.ReLU(), nn.Linear(8 , 4 ), nn.ReLU())def block2 (): net = nn.Sequential() for i in range (4 ): net.add_module(f'block {i} ' , block1()) return net rgnet = nn.Sequential(block2(), nn.Linear(4 , 1 )) rgnet(X)
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 print (rgnet) Sequential( (0 ): Sequential( (block 0 ): Sequential( (0 ): Linear(in_features=4 , out_features=8 , bias=True ) (1 ): ReLU() (2 ): Linear(in_features=8 , out_features=4 , bias=True ) (3 ): ReLU() ) (block 1 ): Sequential( (0 ): Linear(in_features=4 , out_features=8 , bias=True ) (1 ): ReLU() (2 ): Linear(in_features=8 , out_features=4 , bias=True ) (3 ): ReLU() ) (block 2 ): Sequential( (0 ): Linear(in_features=4 , out_features=8 , bias=True ) (1 ): ReLU() (2 ): Linear(in_features=8 , out_features=4 , bias=True ) (3 ): ReLU() ) (block 3 ): Sequential( (0 ): Linear(in_features=4 , out_features=8 , bias=True ) (1 ): ReLU() (2 ): Linear(in_features=8 , out_features=4 , bias=True ) (3 ): ReLU() ) ) (1 ): Linear(in_features=4 , out_features=1 , bias=True ) )
我们也可以像通过嵌套列表索引一样访问它们
1 rgnet[0 ][1 ][0 ].bias.data
参数初始化
良好初始化是十分必要的。 深度学习框架提供默认随机初始化 , 也允许我们创建自定义初始化方法, 满足我们通过其他规则实现初始化权重。
默认情况下,PyTorch会根据一个范围均匀地初始化权重和偏置矩阵, 这个范围是根据输入和输出维度计算出的。 PyTorch的nn.init
模块提供了多种预置初始化方法。
内置初始化
将所有权重参数初始化为标准差为0.01的高斯随机变量, 且将偏置参数设置为0。
1 2 3 4 5 6 def init_normal (m ): if type (m) == nn.Linear: nn.init.normal_(m.weight, mean=0 , std=0.01 ) nn.init.zeros_(m.bias) net.apply(init_normal) net[0 ].weight.data[0 ], net[0 ].bias.data[0 ]
还可以将所有参数初始化为给定的常数,比如初始化为1。
1 2 3 4 5 6 def init_constant (m ): if type (m) == nn.Linear: nn.init.constant_(m.weight, 1 ) nn.init.zeros_(m.bias) net.apply(init_constant) net[0 ].weight.data[0 ], net[0 ].bias.data[0 ]
1 2 3 4 5 6 7 8 9 10 11 def init_xavier (m ): if type (m) == nn.Linear: nn.init.xavier_uniform_(m.weight)def init_42 (m ): if type (m) == nn.Linear: nn.init.constant_(m.weight, 42 ) net[0 ].apply(init_xavier) net[2 ].apply(init_42)print (net[0 ].weight.data[0 ])print (net[2 ].weight.data)
自定义初始化
我们使用以下的分布为任意权重参数$w$定义初始化方法:
$$ \begin{split}\begin{aligned} w \sim \begin{cases} U(5, 10) & \text{ 可能性 } \frac{1}{4} \ 0 & \text{ 可能性 } \frac{1}{2} \ U(-10, -5) & \text{ 可能性 } \frac{1}{4} \end{cases} \end{aligned}\end{split} $$
1 2 3 4 5 6 7 8 9 def my_init (m ): if type (m) == nn.Linear: print ("Init" , *[(name, param.shape) for name, param in m.named_parameters()][0 ]) nn.init.uniform_(m.weight, -10 , 10 ) m.weight.data *= m.weight.data.abs () >= 5 net.apply(my_init) net[0 ].weight[:2 ]
1 2 3 net[0 ].weight.data[:] += 1 net[0 ].weight.data[0 , 0 ] = 42 net[0 ].weight.data[0 ]
参数绑定
有时我们希望在多个层间共享参数: 我们可以定义一个稠密层,然后使用它的参数来设置另一个层的参数。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 shared = nn.Linear(8 , 8 ) net = nn.Sequential(nn.Linear(4 , 8 ), nn.ReLU(), shared, nn.ReLU(), shared, nn.ReLU(), nn.Linear(8 , 1 )) net(X)print (net[2 ].weight.data[0 ] == net[4 ].weight.data[0 ]) net[2 ].weight.data[0 , 0 ] = 100 print (net[2 ].weight.data[0 ] == net[4 ].weight.data[0 ]) tensor([True , True , True , True , True , True , True , True ]) tensor([True , True , True , True , True , True , True , True ])
第三个和第五个神经网络层的参数是绑定的。 它们不仅值相等,而且由相同的张量表示。 因此,如果我们改变其中一个参数,另一个参数也会改变。 这里有一个问题:当参数绑定时,梯度会发生什么情况? 答案是由于模型参数包含梯度,因此在反向传播期间第二个隐藏层 (即第三个神经网络层)和第三个隐藏层(即第五个神经网络层)的梯度会加在一起。
延后初始化
深度学习框架无法判断网络的输入维度是什么。 这里的诀窍是框架的延后初始化 (defers initialization), 即直到数据第一次通过模型传递时,框架才会动态地推断出每个层的大小。
在以后,当使用卷积神经网络时, 由于输入维度(即图像的分辨率)将影响每个后续层的维数, 有了该技术将更加方便。 现在我们在编写代码时无须知道维度是什么就可以设置参数, 这种能力可以大大简化定义和修改模型的任务。 接下来,我们将更深入地研究初始化机制。
1 2 3 import torchfrom torch import nnfrom d2l import torch as d2l
1 net = nn.Sequential(nn.LazyLinear(256 ), nn.ReLU(), nn.LazyLinear(10 ))
the network cannot possibly know the dimensions of the input layer’s weights because the input dimension remains unknown.
1 2 3 4 5 6 X = torch.rand(2 , 20 ) net(X) net[0 ].weight.shape
一旦我们知道输入维数是20,框架可以通过代入值20来识别第一层权重矩阵的形状。 识别出第一层的形状后,框架处理第二层,依此类推,直到所有形状都已知为止。 注意,在这种情况下,只有第一层需要延迟初始化,但是框架仍是按顺序初始化的。 等到知道了所有的参数形状,框架就可以初始化参数。
自定义层
我们可以用创造性的方式组合不同的层,从而设计出适用于各种任务的架构。
不带参数的层
下面的CenteredLayer
类要从其输入中减去均值。 要构建它,我们只需继承基础层类并实现前向传播功能。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 import torchimport torch.nn.functional as Ffrom torch import nnclass CenteredLayer (nn.Module): def __init__ (self ): super ().__init__() def forward (self, X ): return X - X.mean() layer = CenteredLayer() layer(torch.FloatTensor([1 , 2 , 3 , 4 , 5 ]))
1 net = nn.Sequential(nn.Linear(8 , 128 ), CenteredLayer())
作为额外的健全性检查,我们可以在向该网络发送随机数据后,检查均值是否为0。 由于我们处理的是浮点数,因为存储精度的原因,我们仍然可能会看到一个非常小的非零数。
1 2 Y = net(torch.rand(4 , 8 )) Y.mean()
带参数的层
我们继续定义具有参数的层, 这些参数可以通过训练进行调整。 我们可以使用内置函数来创建参数,这些函数提供一些基本的管理功能。 比如管理访问、初始化、共享、保存和加载模型参数。 这样做的好处之一是:我们不需要为每个自定义层编写自定义的序列化程序。我们实现自定义版本的全连接层。
该层需要两个参数,一个用于表示权重,另一个用于表示偏置项。 在此实现中,我们使用修正线性单元作为激活函数。 该层需要输入参数:in_units
和units
,分别表示输入数和输出数。
1 2 3 4 5 6 7 8 class MyLinear (nn.Module): def __init__ (self, in_units, units ): super ().__init__() self .weight = nn.Parameter(torch.randn(in_units, units)) self .bias = nn.Parameter(torch.randn(units,)) def forward (self, X ): linear = torch.matmul(X, self .weight.data) + self .bias.data return F.relu(linear)
1 2 linear = MyLinear(5 , 3 ) linear.weight
1 linear(torch.rand(2 , 5 ))
还可以使用自定义层构建模型,就像使用内置的全连接层一样使用自定义层。
1 2 net = nn.Sequential(MyLinear(64 , 8 ), MyLinear(8 , 1 )) net(torch.rand(2 , 64 ))
读写文件
有时我们希望保存训练的模型, 以备将来在各种环境中使用(比如在部署中进行预测)。 此外,当运行一个耗时较长的训练过程时, 最佳的做法是定期保存中间结果, 以确保在服务器电源被不小心断掉时,我们不会损失几天的计算结果。 因此,现在是时候学习如何加载和存储权重向量和整个模型了。
加载和保存张量 1 2 3 import torchfrom torch import nnfrom torch.nn import functional as F
单个张量,我们可以直接调用load
和save
函数分别读写它们。
1 2 3 4 x = torch.arange(4 ) torch.save(x, 'x-file' ) x2 = torch.load('x-file' ) x2
1 2 3 4 y = torch.zeros(4 ) torch.save([x, y],'x-files' ) x2, y2 = torch.load('x-files' ) (x2, y2)
我们甚至可以写入或读取从字符串映射到张量的字典。 当我们要读取或写入模型中的所有权重时,这很方便。
1 2 3 4 mydict = {'x' : x, 'y' : y} torch.save(mydict, 'mydict' ) mydict2 = torch.load('mydict' ) mydict2
加载和保存模型参数
如果我们想保存整个模型,并在以后加载它们, 单独保存每个向量则会变得很麻烦。 毕竟,我们可能有数百个参数散布在各处。 因此,深度学习框架提供了内置函数来保存和加载整个网络。 需要注意的一个重要细节是,这将保存模型的参数而不是保存整个模型。 例如,如果我们有一个3层多层感知机,我们需要单独指定架构。 因为模型本身可以包含任意代码,所以模型本身难以序列化。 因此,为了恢复模型,我们需要用代码生成架构, 然后从磁盘加载参数。
1 2 3 4 5 6 7 8 9 10 11 12 class MLP (nn.Module): def __init__ (self ): super ().__init__() self .hidden = nn.Linear(20 , 256 ) self .output = nn.Linear(256 , 10 ) def forward (self, x ): return self .output(F.relu(self .hidden(x))) net = MLP() X = torch.randn(size=(2 , 20 )) Y = net(X)
我们将模型的参数存储在一个叫做“mlp.params”的文件中。为了恢复模型,我们实例化了原始多层感知机模型的一个备份。 这里我们不需要随机初始化模型参数,而是直接读取文件中存储的参数。
1 2 3 4 5 6 7 8 9 10 torch.save(net.state_dict(), 'mlp.params' ) clone = MLP() clone.load_state_dict(torch.load('mlp.params' )) clone.eval () MLP( (hidden): Linear(in_features=20 , out_features=256 , bias=True ) (output): Linear(in_features=256 , out_features=10 , bias=True ) )
clone.eval()将模型从train模式调整为test模式,不再进行训练更改梯度
由于两个实例具有相同的模型参数,在输入相同的X
时, 两个实例的计算结果应该相同。
1 2 Y_clone = clone(X) Y_clone == Y
GPU
首先是如何使用单个GPU,然后是如何使用多个GPU和多个服务器(具有多个GPU)。
首先,确保至少安装了一个NVIDIA GPU。 然后,下载NVIDIA驱动和CUDA 并按照提示设置适当的路径。 当这些准备工作完成,就可以使用nvidia-smi
命令来查看显卡信息。
在PyTorch中,每个数组都有一个设备(device), 我们通常将其称为环境(context)。 默认情况下,所有变量和相关的计算都分配给CPU。 有时环境可能是GPU。 当我们跨多个服务器部署作业时,事情会变得更加棘手。 通过智能地将数组分配给环境, 我们可以最大限度地减少在设备之间传输数据的时间。 例如,当在带有GPU的服务器上训练神经网络时, 我们通常希望模型的参数在GPU上。要运行此部分中的程序,至少需要两个GPU。 注意,对大多数桌面计算机来说,这可能是奢侈的,但在云中很容易获得。 例如可以使用AWS EC2的多GPU实例。 本书的其他章节大都不需要多个GPU, 而本节只是为了展示数据如何在不同的设备之间传递。
计算设备
我们可以指定用于存储和计算的设备,如CPU和GPU。 默认情况下,张量是在内存中创建的,然后使用CPU计算它。
在PyTorch中,CPU和GPU可以用torch.device('cpu')
和torch.device('cuda')
表示。 应该注意的是,cpu
设备意味着所有物理CPU和内存, 这意味着PyTorch的计算将尝试使用所有CPU核心。 然而,gpu
设备只代表一个卡和相应的显存。 如果有多个GPU,我们使用torch.device(f'cuda:{i}')
来表示第$i$块GPU($i$从0开始)。 另外,cuda:0
和cuda
是等价的。
1 2 3 4 5 6 import torchfrom torch import nn torch.device('cpu' ), torch.device('cuda' ), torch.device('cuda:1' )
1 torch.cuda.device_count()
我们定义了两个方便的函数, 这两个函数允许我们在不存在所需所有GPU的情况下运行代码。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 def try_gpu (i=0 ): """如果存在,则返回gpu(i),否则返回cpu()""" if torch.cuda.device_count() >= i + 1 : return torch.device(f'cuda:{i} ' ) return torch.device('cpu' )def try_all_gpus (): """返回所有可用的GPU,如果没有GPU,则返回[cpu(),]""" devices = [torch.device(f'cuda:{i} ' ) for i in range (torch.cuda.device_count())] return devices if devices else [torch.device('cpu' )] try_gpu(), try_gpu(10 ), try_all_gpus() (device(type ='cuda' , index=0 ), device(type ='cpu' ), [device(type ='cuda' , index=0 ), device(type ='cuda' , index=1 )])
张量与GPU
我们可以查询张量所在的设备。 默认情况下,张量是在CPU上创建的。
1 2 x = torch.tensor([1 , 2 , 3 ]) x.device
需要注意的是,无论何时我们要对多个项进行操作, 它们都必须在同一个设备上。 例如,如果我们对两个张量求和, 我们需要确保两个张量都位于同一个设备上, 否则框架将不知道在哪里存储结果,甚至不知道在哪里执行计算。
存储在GPU上
在GPU上创建的张量只消耗这个GPU的显存。 我们可以使用nvidia-smi
命令查看显存使用情况。 一般来说,我们需要确保不创建超过GPU显存限制的数据。
1 2 3 4 5 6 X = torch.ones(2 , 3 , device=try_gpu()) X tensor([[1. , 1. , 1. ], [1. , 1. , 1. ]], device='cuda:0' )
假设我们至少有两个GPU,下面的代码将在第二个GPU上创建一个随机张量。
1 2 3 4 5 6 Y = torch.rand(2 , 3 , device=try_gpu(1 )) Y tensor([[0.3821 , 0.5270 , 0.4919 ], [0.9391 , 0.0660 , 0.6468 ]], device='cuda:1' )
复制
如果我们要计算X + Y
,我们需要决定在哪里执行这个操作。我们可以将X
传输到第二个GPU并在那里执行操作。 不要 简单地X
加上Y
,因为这会导致异常, 运行时引擎不知道该怎么做:它在同一设备上找不到数据会导致失败。 由于Y
位于第二个GPU上,所以我们需要将X
移到那里, 然后才能执行相加运算。
1 2 3 4 5 6 7 8 9 Z = X.cuda(1 )print (X)print (Z) tensor([[1. , 1. , 1. ], [1. , 1. , 1. ]], device='cuda:0' ) tensor([[1. , 1. , 1. ], [1. , 1. , 1. ]], device='cuda:1' )
现在数据在同一个GPU上(Z
和Y
都在),我们可以将它们相加。
1 2 3 4 5 Y + Z tensor([[1.3821 , 1.5270 , 1.4919 ], [1.9391 , 1.0660 , 1.6468 ]], device='cuda:1' )
假设变量Z
已经存在于第二个GPU上。 如果我们还是调用Z.cuda(1)
会发生什么? 它将返回Z
,而不会复制并分配新内存。
旁注
用GPU来进行机器学习,是因为单个GPU相对运行速度快。 但是在设备(CPU、GPU和其他机器)之间传输数据比计算慢得多。 这也使得并行化变得更加困难,因为我们必须等待数据被发送(或者接收), 然后才能继续进行更多的操作。 这就是为什么拷贝操作要格外小心。 根据经验,多个小操作比一个大操作糟糕得多。 此外,一次执行几个操作比代码中散布的许多单个操作要好得多。 如果一个设备必须等待另一个设备才能执行其他操作, 那么这样的操作可能会阻塞。
A100 - A800, H100-H800,本质上不是计算能力的阉割,本质上是传输能力的阉割
最后,当我们打印张量或将张量转换为NumPy格式时, 如果数据不在内存中,框架会首先将其复制到内存中, 这会导致额外的传输开销。 更糟糕的是,它现在受制于全局解释器锁,使得一切都得等待Python完成。
神经网络与GPU
神经网络模型可以指定设备。 下面的代码将模型参数放在GPU上。
1 2 net = nn.Sequential(nn.Linear(3 , 1 )) net = net.to(device=try_gpu())
在接下来的几章中, 我们将看到更多关于如何在GPU上运行模型的例子, 因为它们将变得更加计算密集。
当输入为GPU上的张量时,模型将在同一GPU上计算结果。
1 2 3 4 5 net(X) tensor([[-0.0605 ], [-0.0605 ]], device='cuda:0' , grad_fn=<AddmmBackward0>)
1 2 3 4 net[0 ].weight.data.device device(type ='cuda' , index=0 )
总之,只要所有的数据和参数都在同一个设备上, 我们就可以有效地学习模型。
References
https://zh-v2.d2l.ai/chapter_deep-learning-computation/index.html
全局解释器锁
https://pytorch.org/tutorials/beginner/saving_loading_models.html
https://developer.nvidia.com/cuda-downloads
https://www.bilibili.com/list/1567748478?sid=358498&desc=1&oid=630666219&bvid=BV1F84y1F7Ps