玩偶姐姐 麻豆 【Pytorch】2024 Pytorch基础初学教程(齐全注意版)

av资料库

  • 首页
  • 捆绑 调教
  • bdsm 调教
  • 小黑屋 调教
  • 耳光 调教
  • 女王 调教
  • 调教 母狗
  • 你的位置:av资料库 > bdsm 调教 > 玩偶姐姐 麻豆 【Pytorch】2024 Pytorch基础初学教程(齐全注意版)
    玩偶姐姐 麻豆 【Pytorch】2024 Pytorch基础初学教程(齐全注意版)
    发布日期:2024-12-08 12:34    点击次数:85

    玩偶姐姐 麻豆 【Pytorch】2024 Pytorch基础初学教程(齐全注意版)

       

    图片玩偶姐姐 麻豆

    一、Pytorch 1.1 简介

    Pytorch是torch的python版块,是由Facebook开源的神经汇集框架,专诚针对 GPU 加快的深度神经汇集(DNN)编程。Torch 是一个经典的对多维矩阵数据进行操作的张量(tensor )库,在机器学习和其他数学密集型应用有无为应用。与Tensorflow的静态打算图不同,pytorch的打算图是动态的,不错把柄打算需要及时调动打算图。但由于Torch谈话接纳 Lua,导致在国内一直很小众,并渐渐被救助 Python 的 Tensorflow 抢走用户。行动经典机器学习库 Torch 的端口,PyTorch 为 Python 谈话使用者提供了惬意的写代码选拔。

    至于为什么保举使用Pytorch,我念念最主要的原因即是它相配的精真金不怕火,相配顺应Python的作风。

    1.2 装配

    领先确保你也曾装配了GPU环境,即Anaconda、CUDA和CUDNN

    随后投入Pytorch官网PyTorch

    官网会自动泄漏顺应你电脑建树的Pytorch版块,复制请示到conda环境中运行即可 

    图片

    测试是否装配见效 

    import torchprint(torch.__version__) # pytorch版块print(torch.version.cuda) # cuda版块print(torch.cuda.is_available()) # 检察cuda是否可用

    图片

    二、Tensor

    Tensor张量是Pytorch里最基本的数据结构。直不雅上来讲,它是一个多维矩阵,救助GPU加快,其基本数据类型如下

    数据类型CPU tensorGPU tensor8位无记号整型torch.ByteTensortorch.cuda.ByteTensor8位有记号整型torch.CharTensortorch.cuda.CharTensor16位有记号整型torch.ShortTensortorch.cuda.ShortTensor32位有记号整型torch.IntTensortorch.cuda.IntTensor64位有记号整型torch.LongTensortorch.cuda.LonfTensor

    32位浮点型

    torch.FloatTensortorch.cuda.FloatTensor64位浮点型torch.DoubleTensortorch.cuda.DoubleTensor布尔类型torch.BoolTensortorch.cuda.BoolTensor 2.1 Tensor创建

    图片

    2.1.1 torch.tensor() && torch.tensor([])

    二者的主要区别在于创建的对象的size和value不同

    图片

    2.1.2 torch.randn && torch.randperm

    生成的数据类型为浮点型,与numpy.randn生成就地数的形式雷同,生成的浮点数的取值知足均值为0,方差为1的正态散布

    图片

    萝莉sex

    torch.randpern(n)为创建一个n个整数,就地摆设的Tensor

    图片

    2.1.3 torch.range(begin,end,step)

    生成一个一维的Tensor,三个参数诀别的肇端位置,隔断位置和步长

    图片

    2.1.4 指定numpy

    好多技能咱们需要创建指定的Tensor,而numpy即是一个很好的面貌

    图片

    2.2 Tensor运算 函数作用torch.abs(A)皆备值torch.add(A,B)相加,A和B既不错是Tensor也不错是标量torch.clamp(A,max,min)剪辑,A中的数据若小于min或大于max,则变成min或max,即保证规模在[min,max]torch.div(A,B)相除,A%B,A和B既不错是Tensor也不错是标量

    torch.mul(A,B)

    点乘,A*B,A和B既不错是Tensor也不错是标量

    torch.pow(A,n)

    求幂,A的n次方 torch.mm(A,B.T)矩阵叉乘,注意与torch.mul之间的区别torch.mv(A,B)矩阵与向量相乘,A是矩阵,B是向量,这里的B需不需要转置都是不错的A.item()将Tensor升沉为基本数据类型,注意Tensor中只消一个元素的技能才不错使用,一般用于在Tensor中取出数值A.numpy()将Tensor升沉为Numpy类型A.size()检察尺寸

    A.shape

    检察尺寸A.dtype检察数据类型A.view()重构张量尺寸,雷同于Numpy中的reshapeA.transpose(0,1)行列交换

    A[1:]

    A[-1,-1]=100

    切面,雷同Numpy中的切面A.zero_()归零化torch.stack((A,B),sim=-1)拼接,升维torch.diag(A)取A对角线元素酿成一个一维向量torch.diag_embed(A)将一维向量放到对角线中,其尾数值为0的Tensor 2.2.1 A.add() && A.add_()

    通盘的带_记号的函数都会对原数据进行修改玩偶姐姐 麻豆

    图片

    2.2.2 torch.stack

    stack为拼接函数,函数的第一个参数为需要拼接的Tensor,第二个参数为细分到哪个维度

    A=torch.IntTensor([[1,2,3],[4,5,6]])B=torch.IntTensor([[7,8,9],[10,11,12]])C1=torch.stack((A,B),dim=0) # or C1=torch.stack((A,B))C2=torch.stack((A,B),dim=1)C3=torch.stack((A,B),dim=2)C4=torch.stack((A,B),dim=-1)print(C1,C2,C3,C4)

    图片

    dim=0,C1 = [ A,B ]

    dim=1,C2 = [ [ A[0],B[0] ] , [ A[1],B[1] ] ]

    dim=2,C3 = [ [ [ A[0][0],B[0][0] ] , [ A[0][1],B[0][1] ] , [ A[0][2],B[0][2] ] ],

                            [ [ A[1][0],B[1][0] ] , [ A[1][1],B[1][1] ] , [ A[1][2],B[1][2] ] ] ]

    dim=-1,C4 = C3

    三、CUDA

    CUDA是一种操作GPU的软件架构,Pytorch取悦GPU环境这么模子的老到速率会相配的快

    3.1 使用GPU
    import torch# 测试GPU环境是否可使用print(torch.__version__) # pytorch版块print(torch.version.cuda) # cuda版块print(torch.cuda.is_available()) # 检察cuda是否可用#使用GPU or CPUdevice = torch.device('cuda' if torch.cuda.is_available() else 'cpu')# 判断某个对象是在什么环境中运行的a.device# 将对象的环境成立为device环境A = A.to(device)# 将对象环境成立为COUA.cpu().device# 若一个莫得环境的对象与另外一个有环境a对象进行一样,则环境全变成环境aa+b.to(device)# cuda环境下tensor不可平直升沉为numpy类型,必须要先升沉到cpu环境中a.cpu().numpy()# 创建CUDA型的tensortorch.tensor([1,2],device)
    四、其他手段 4.1 自动微分

    神经汇集依赖反向传播求梯度来更新汇集的参数,求梯度是个相配复杂的过程,在Pytorch中,提供了两种求梯度的面貌,一个是backward,将求得的效用保存在自变量的grad属性中,另外一种面貌是torch.autograd.grad

    4.1.1 backward求导

    使用backward进行求导。这里主要先容了求导的两种对象,标量Tensor和非标量Tensor的求导。两者的主要区别诟谇标量Tensor求导的主要区别是加了一个gradient的Tensor,其尺寸与自变量X的尺寸一致。在求完导后,需要与gradient进行点积,是以仅仅一般的求导的话,成立的参数一皆为1。终末还有一种使用标量的求导面貌责罚非标量求导,了解了解就好了。

    import numpy as npimport torch# 标量Tensor求导# 求 f(x) = a*x**2 + b*x + c 的导数x = torch.tensor(-2.0, requires_grad=True)a = torch.tensor(1.0)b = torch.tensor(2.0)c = torch.tensor(3.0)y = a*torch.pow(x,2)+b*x+cy.backward() # backward求得的梯度会存储在自变量x的grad属性中dy_dx =x.graddy_dx# 非标量Tensor求导# 求 f(x) = a*x**2 + b*x + c 的导数x = torch.tensor([[-2.0,-1.0],[0.0,1.0]], requires_grad=True)a = torch.tensor(1.0)b = torch.tensor(2.0)c = torch.tensor(3.0)gradient=torch.tensor([[1.0,1.0],[1.0,1.0]])y = a*torch.pow(x,2)+b*x+cy.backward(gradient=gradient) dy_dx =x.graddy_dx# 使用标量求导面貌责罚非标量求导# 求 f(x) = a*x**2 + b*x + c 的导数x = torch.tensor([[-2.0,-1.0],[0.0,1.0]], requires_grad=True)a = torch.tensor(1.0)b = torch.tensor(2.0)c = torch.tensor(3.0)gradient=torch.tensor([[1.0,1.0],[1.0,1.0]])y = a*torch.pow(x,2)+b*x+cz=torch.sum(y*gradient)z.backward()dy_dx=x.graddy_dx
    4.1.2 autograd.grad求导
    import torch#单个自变量求导# 求 f(x) = a*x**4 + b*x + c 的导数x = torch.tensor(1.0, requires_grad=True)a = torch.tensor(1.0)b = torch.tensor(2.0)c = torch.tensor(3.0)y = a * torch.pow(x, 4) + b * x + c#create_graph成立为True,允许创建更高阶层的导数#求一阶导dy_dx = torch.autograd.grad(y, x, create_graph=True)[0]#求二阶导dy2_dx2 = torch.autograd.grad(dy_dx, x, create_graph=True)[0]#求三阶导dy3_dx3 = torch.autograd.grad(dy2_dx2, x)[0]print(dy_dx.data, dy2_dx2.data, dy3_dx3)# 多个自变量求偏导x1 = torch.tensor(1.0, requires_grad=True)x2 = torch.tensor(2.0, requires_grad=True)y1 = x1 * x2y2 = x1 + x2#只消一个因变量,平淡求偏导dy1_dx1, dy1_dx2 = torch.autograd.grad(outputs=y1, inputs=[x1, x2], retain_graph=True)print(dy1_dx1, dy1_dx2)# 若有多个因变量,则关于每个因变量,会将求偏导的效用加起来dy1_dx, dy2_dx = torch.autograd.grad(outputs=[y1, y2], inputs=[x1, x2])dy1_dx, dy2_dxprint(dy1_dx, dy2_dx)

    图片

    4.1.3 求最小值

    使用自动微分机制配套使用SGD就地梯度着落来求最小值

    #例2-1-3 期骗自动微分和优化器求最小值import numpy as npimport torch# f(x) = a*x**2 + b*x + c的最小值x = torch.tensor(0.0, requires_grad=True)  # x需要被求导a = torch.tensor(1.0)b = torch.tensor(-2.0)c = torch.tensor(1.0)optimizer = torch.optim.SGD(params=[x], lr=0.01)  #SGD为就地梯度着落print(optimizer)def f(x):    result = a * torch.pow(x, 2) + b * x + c    return (result)for i in range(500):    optimizer.zero_grad()  #将模子的参数运行化为0    y = f(x)    y.backward()  #反向传播打算梯度    optimizer.step()  #更新通盘的参数print('y=', y.data, ';', 'x=', x.data)

    图片

    4.2 Pytorch档次结构

    Pytorch中一共有5个不同的档次结构,诀别为硬件层、内核层、低阶API、中阶API和高阶API(torchkeras)

    硬件层底层的打算资源包括CPU和GPU内核层使用C++来齐全低阶APIPython齐全的操作符,提供了封装C++内核的初级API请示,主要包括多样张量操作算 子、自动微分、变量不停. 如torch.tensor,torch.cat,torch.autograd.grad,nn.Module. 中阶APIPython齐全的模子组件,对初级API进行了函数封装,主要包括多样模子层,耗费函数,优化器,数据管谈等等。 如 torch.nn.Linear,torch.nn.BCE,torch.optim.Adam,torch.utils.data.DataLoader. 高阶APIPython齐全的模子接口。Pytorch莫得官方的高阶API。为了便于老到模子,咱们仿照 keras中的模子接口,使用了不到300行代码,封装了Pytorch的高阶模子接口 torchkeras.Model 五、数据

    Pytorch主要通过Dataset和DataLoader进行构建数据管谈

    5.1 Dataset and DataLoader Dataset一个数据集详尽类,通盘自界说的Dataset都需要采用它,况且重写__getitem__()或__get_sample__()这个类形式DataLoader

    一个可迭代的数据装载器。在老到的技能,每一个for轮回迭代,就从DataLoader中获取一个batch_sieze大小的数据。

    5.2 数据读取与预处理

    DataLoader的参数如下

    DataLoader( dataset, batch_size=1, shuffle=False, sampler=None, batch_sampler=None, num_workers=0, collate_fn=None, pin_memory=False, drop_last=False, timeout=0, worker_init_fn=None, multiprocessing_context=None,)

    在推行中,主要修改的参数以下标为橙色

    dataset数据集,决定数据从那里读取,以及如何读取batch_size批次大小,默许为1shuffle每个epoch是否乱序sampler样本采样函数,一般无需成立batch_sampler批次采样函数,一般无需成立num_workers使用多进度读取数据,成立的进度数collate_fn整理一个批次数据的函数pin_memory是否成立为锁业内存。默许为False,锁业内存不会使用杜撰内存(硬盘),从锁 业内存拷贝到GPU上速率会更快drop_last是否丢弃终末一个样本数目不及batch_size批次数据timeout加载一个数据批次的最长恭候时辰,一般无需成立worker_init_fn每个worker中dataset的运行化函数,常用于 IterableDataset。一般不使用

    顺带先容一下Epoch、Iteration、Batchsize之间的联系

    Epoch通盘的样本数据都输入到模子中,称为一个epochIteration一个Batch的样本输入到模子中,称为一个IterationBatchsize一个批次的大小,一个Epoch=Batchsize*Iteration

    先看数据读取的主要历程

    图片

    1. 从DataLoader入手

    2. 投入DataLoaderIter,判断单线程照旧多线程

    3. 投入Sampler进行采样,取得一批一批的索引,这些索引告诉咱们需要读取哪些数据、

    4. 投入DatasetFetcher,依据索引读取数据

    5. Dataset告诉咱们数据的地址

    6. 自界说的Dataset中会重写__getietm__形式,针对不同的数据来进行定制化的数据读取

    7. 到这里就获取的数据的Text和Label

    8. 投入collate_fn将之前获取的个体数据进行组合成batch

    9. 一个一个batch构成Batch Data

    再来看一个具体的代码

    from torch.utils.data import DataLoaderfrom torch.utils.data.dataset import TensorDataset# 自构建数据集dataset = TensorDataset(torch.arange(1, 40))dl = DataLoader(dataset,                batch_size=10,                shuffle=True,                num_workers=1,                drop_last=True)# 数据输出for batch in dl:    print(batch)

    图片

    因为自界说的数据集只消39条,终末一个batch的数据量小于10,被铁心掉了

    而数据预处理主若是重写Dataset和DataLoader中的形式,因此总体代码如下所示

    5.5 Pytorch用具

    基于Pytorch也曾产生了一些封装完备的用具,而舛误也很赫然,数据处理不是很活泼,关于初学者来说,多写代码比拟富厚,因此作家不太保举使用这些形式

    torchvision图像视频处理torchaudio音频处理torchtext当然谈话处理 六、torch.nn

    torch.nn是神经网路用具箱,该用具箱建造于Autograd(主要有自动求导和梯度反向传播功能),提供了汇集搭建的模组,优化器等一系列功能。

    搭建一个神经汇集模子通盘历程是怎样样的呢?

    搭建汇集历程

    1 数据读取

    2 界说模子

    3 界说耗费函数和优化器

    4 模子老到

    5 获取老到效用

    咱们拿一个最苟简的FNN汇集来对经典数据集diabetes糖尿病数据集来进行分类展望。

    数据集:见博客尖端

    ​import numpy as npimport torchimport matplotlib.pyplot as pltfrom torch.utils.data import Dataset, DataLoader# Prepare the datasetclass DiabetesDateset(Dataset):    # 加载数据集    def __init__(self, filepath):        xy = np.loadtxt(filepath, delimiter=',', dtype=np.float32, encoding='utf-8')        self.len = xy.shape[0]  # shape[0]是矩阵的行数,shape[1]是矩阵的列数        self.x_data = torch.from_numpy(xy[:, :-1])        self.y_data = torch.from_numpy(xy[:, [-1]])    # 获取数据索引    def __getitem__(self, index):        return self.x_data[index], self.y_data[index]    # 取得数据总量    def __len__(self):        return self.lendataset = DiabetesDateset('diabetes.csv')train_loader = DataLoader(dataset=dataset, batch_size=32, shuffle=True, num_workers=2)  # num_workers为多线程# Define the modelclass FNNModel(torch.nn.Module):    def __init__(self):        super(FNNModel, self).__init__()        self.linear1 = torch.nn.Linear(8, 6)  # 输入数据的特征有8个,也即是有8个维度,随后将其降维到6维        self.linear2 = torch.nn.Linear(6, 4)  # 6维降到4维        self.linear3 = torch.nn.Linear(4, 2)  # 4维降到2维        self.linear4 = torch.nn.Linear(2, 1)  # 2w维降到1维        self.sigmoid = torch.nn.Sigmoid()  # 不错视其为汇集的一层,而不是苟简的函数使用    def forward(self, x):        x = self.sigmoid(self.linear1(x))        x = self.sigmoid(self.linear2(x))        x = self.sigmoid(self.linear3(x))        x = self.sigmoid(self.linear4(x))        return xmodel = FNNModel()# Define the criterion and optimizercriterion = torch.nn.BCELoss(reduction='mean')  # 复返耗费的平均值optimizer = torch.optim.SGD(model.parameters(), lr=0.01)epoch_list = []loss_list = []# Trainingif __name__ == '__main__':    for epoch in range(100):        # i是一个epoch中第几次迭代,一共756条数据,每个mini_batch为32,是以一个epoch需要迭代23次        # data获取的数据为(x,y)        loss_one_epoch = 0        for i, data in enumerate(train_loader, 0):            inputs, labels = data            y_pred = model(inputs)            loss = criterion(y_pred, labels)            loss_one_epoch += loss.item()            optimizer.zero_grad()            loss.backward()            optimizer.step()        loss_list.append(loss_one_epoch / 23)        epoch_list.append(epoch)        print('Epoch[{}/{}],loss:{:.6f}'.format(epoch + 1, 100, loss_one_epoch / 23))    # Drawing    plt.plot(epoch_list, loss_list)    plt.xlabel('epoch')    plt.ylabel('loss')    plt.show()​

    Result

    图片

    图片

    注意点

    1 创建模子的参数与__init__中的参数一致

    2 老到模子的参数与forward中的参数一致 

    参考贵寓

    本著作东要参考Github的各个大牛团队以及Pytorch的官方文档,感谢开源,开源万岁!

    1 Chinese-Text-Classfication-Pytorch

    2 Pytorch official Chinese documents

    3 Pytorch official English doccuments

    4 B站 PyTorch深度学习快速初学教程(小土堆)

    5 pytorch-tutorial

    6 Youtube--Pytorch

    7 Pytorch--handbook

    8 Deep Learning with PyTorch: A 60 Minute Blitz

    以下是作家两个较为有真心的工程,已开源。其中的代码框架结构是我看了较多论文源码后归来出来的一套较为领会、法度的模板,且我的学术论文都是在此基础上修改的。工程的试验亦然热点的CV和NLP规模两个基础性的任务,顺应学完Pytorch后的工程推行

    Bert/Roberta+Transformer_BILSTM_TextCNN齐全IMDB文天职类

    LeNet、AlexNet、GoogleLeNet、VGG16、ResNet齐全COIL20图像分类玩偶姐姐 麻豆

    本站仅提供存储处事,通盘试验均由用户发布,如发现存害或侵权试验,请点击举报。

    上一篇:咬一口兔娘 裸舞 关原合战, 德川家康清理了许多西军将领, 为何却单独放过立花宗茂
    下一篇:美女写真 合肥新桥机场S1线临了一座车站封顶