首页后端开发PythonPytorch自动微分实现思路和过程是什么

Pytorch自动微分实现思路和过程是什么

时间2024-03-22 14:15:03发布访客分类Python浏览968
导读:这篇文章给大家分享的是“Pytorch自动微分实现思路和过程是什么”,文中的讲解内容简单清晰,对大家认识和了解都有一定的帮助,对此感兴趣的朋友,接下来就跟随小编一起了解一下“Pytorch自动微分实现思路和过程是什么”吧。 一、简...
这篇文章给大家分享的是“Pytorch自动微分实现思路和过程是什么”,文中的讲解内容简单清晰,对大家认识和了解都有一定的帮助,对此感兴趣的朋友,接下来就跟随小编一起了解一下“Pytorch自动微分实现思路和过程是什么”吧。

一、简介

antograd包是Pytorch中所有神经网络的核心。autograd为Tensor上的所有操作提供自动微分,它是一个由运行定义的框架,这意味着以代码运行方式定义后向传播,并且每一次迭代都可能不同

二、TENSOR

torch.Tensor是包的核心。

1.如果将属性.requires_grad设置为True,则会开始跟踪针对tensor的所有操作。

2.完成计算之后,可以调用backward()来自带计算多有梯度。该张量的梯度将积累到.grad属性中。

3.要停止tensor历史记录的跟踪,可以调用.detach(),他将与计算历史记录分离,并防止将来的计算被跟踪

4.要停止跟踪历史记录(和使用内存),可以将代码块使用with torch.no_grad():包装起来。在评估模型时候,很有用,因为模型在训练阶段具有requires_grad=True的可训练参数有利于调参,但是在评估阶段不需要梯度

5.还有一个对于autograd实现非常重要的就是Function。tensor和Function互相连接并构建一个肺循环图,他保存整个完整的计算过程的历史信息。每个张量都有一个.grad_fn属性保存着创建了张量的Function的引用(如果用户自己创建的张量,那么grad_fn是None)

6.如果想计算导数,可以调用Tensor.backward().如果Tensor是标量(包含一个元素数据)则不需要指定任何参数backward(),但是如果他有更多元素,则需要指定gradient参数来指定张量的形状

import torch
# 创建一个张量,设置requires_grad=True
x=torch.ones(2,2,requires_grad=True)
print(x)
# 针对张量操作
y=x+2
print(y)
print(y.grad_fn)#y作为操作的结果被创建,所以他有grad_fn
# 对y操作
z=y*y*3
out=z.mean()
print(z,out)

运行结果

# 如果在变量输入过程中没有提供相应参数,输入的标记默认为False,requires_grad_()会改变张量的requires_grad标记
a=torch.randn(2, 2)
a=((a*3)/(a-1))
# 前面没有设置requires_grad,固会输出False
print(a.requires_grad)
a.requires_grad_(True)
# 经过上面语句的更改之后,此处应该输出True
print(a.requires_grad)
b=(a*a).sum()
# 输出梯度信息
print(b.grad_fn)

运行结果

三、梯度

现在向后传播,因为输出包含了一个标量,out,backward()等同于out.backward(torch.tensor(1,))

out.backward()#向后传播
print(x.grad)#打印梯度

运行结果


原理


四、Example――雅克比向量积

# 雅克比向量积
x=torch.randn(3,requires_grad=True)
y=x*2
print(y)
while y.data.norm()1000:
    y=y*2
print(y)#此时y不是标量,torch.autograd 不能够直接计算整个雅可比,但是如果我们只想要雅可比向量积,只需要简单的传递向量给 backward 作为参数
v=torch.tensor([0.1,1.0,0.0001],dtype=torch.float)
y.backward(v)
print(x.grad)
print(x.requires_grad)
print((x**2).requires_grad)
# 使用一下语句停止从跟踪历史中.require_gra=True的张量自动求导
with torch.no_grad():
    print((x**2).requires_grad)

运行结果


总结


关于“Pytorch自动微分实现思路和过程是什么”的内容就介绍到这,感谢各位的阅读,相信大家对Pytorch自动微分实现思路和过程是什么已经有了进一步的了解。大家如果还想学习更多知识,欢迎关注网络,小编将为大家输出更多高质量的实用文章!

声明:本文内容由网友自发贡献,本站不承担相应法律责任。对本内容有异议或投诉,请联系2913721942#qq.com核实处理,我们将尽快回复您,谢谢合作!


若转载请注明出处: Pytorch自动微分实现思路和过程是什么
本文地址: https://pptw.com/jishu/650608.html
PHP计算数组元素和的实现方法及代码是什么 数据库sql语句设置外键的方法是什么?

游客 回复需填写必要信息