第二章预备知识 节省内存:使⽤切⽚表⽰法将操作的结果分配给先前分配的数组 Z[:] = X+Y 就可以把结果覆盖在Z的原内存上,而不是新...
文章目录 torch.ones(*sizes, out=None): torch.zeros(*sizes, out=None): torch.normal(means, std, out=None): pytorch的顺序容器torc...
Pytorch中gather(1,)和.gather(0,)的区别? 在 PyTorch 中,.gather(dim, index) 函数用于根据给定的索引在指定的维度上获取张量的元素。其中...
参考:Pytorch之permute函数 https://zhuanlan.zhihu.com/p/76583143 pytorch的permute方法用于调整矩阵的维度。同numpy的transpose()方法,但...
目录 1. torch.expand(*sizes) 2. torch.repeat(*sizes) 3. 两者内存占用的区别 在PyTorch中有两个函数可以用来扩展某一维度的张量,即 torch.expan...
01 序言:Pytorch在自然语言处理中的应用 目录 01 序言:Pytorch在自然语言处理中的应用 1. PyTorch简介 2. 自然语言处理 3. PyTorch在自...
hook函数 为了节省显存(内存),PyTorch会自动舍弃图计算的中间结果,所以想要获取这些数值就需要使用hook函数。hook函数在使用后...
PyTorch中的张量是一种多维数组,类似于NumPy的数组。与NumPy数组类似,张量可以用来表示向量、矩阵、图片等各种数据结构。PyTorch中的张量有以...
forward()函数和__init__()的关系 __init__() 是一个类的构造函数,用于初始化对象的属性。它会在创建对象时自动调用,而且通常在这里完成对象...
Pytorch 中.max(0)和.max(1)的区别是什么? 当我们有一个形状为 (m,n)(m, n)(m,n) 的 Tensor xxx 时,其中 mmm 表示行数,nnn 表示列数。...