0

0

PyTorch中获取中间张量梯度的实用指南

碧海醫心

碧海醫心

发布时间:2025-09-17 11:08:01

|

327人浏览过

|

来源于php中文网

原创

PyTorch中获取中间张量梯度的实用指南

在PyTorch中,直接通过模块的后向钩子(backward hooks)获取非叶子节点(中间张量)的梯度并非其设计初衷。本文将详细阐述一种有效的方法:通过调用retain_grad()方法并存储中间张量的引用,从而在反向传播后成功访问这些中间梯度,这对于深度学习模型的调试和理解至关重要。

理解PyTorch中的梯度与钩子机制

pytorch中,反向传播(backward pass)计算梯度,通常情况下,非叶子张量的梯度在计算完成后会被自动释放,以节省内存。模块的后向钩子(如register_full_backward_hook)主要用于捕获流经模块的梯度输入和输出,或者修改参数的梯度,而不是直接访问任意中间计算结果的梯度。因此,尝试将模块钩子用于打印sum_x或mul_x这类中间张量的梯度是无效的,因为这些张量本身不是模块,且它们的梯度在默认情况下不会被保留。

获取中间张量梯度的正确方法

要获取非叶子张量(即不是模型参数的中间计算结果)的梯度,我们需要采取以下两个关键步骤:

  1. 显式保留梯度:在反向传播过程中,PyTorch默认不会保留非叶子张量的梯度。为了强制保留它们,需要对这些张量调用.retain_grad()方法。
  2. 存储张量引用:为了在反向传播完成后能够访问这些张量的梯度,需要将它们作为模型实例的属性或其他可访问的方式进行存储。

下面通过一个具体的代码示例来演示如何实现:

示例代码

假设我们有一个简单的神经网络func_NN,我们想在反向传播后检查mul_x和sum_x这两个中间张量的梯度。

MakeSong
MakeSong

AI音乐生成,生成高质量音乐,仅需30秒的时间

下载
import torch
import torch.nn as nn
import torch.optim as optim

class func_NN(nn.Module):
    def __init__(self):
        super().__init__()
        self.a = nn.Parameter(torch.rand(1))
        self.b = nn.Parameter(torch.rand(1))

    def forward(self, inp):
        # 中间计算步骤
        mul_x = torch.cos(self.a.view(-1, 1) * inp)
        sum_x = mul_x - self.b

        # 关键步骤1: 显式保留中间张量的梯度
        # 这会告诉PyTorch在反向传播后不要丢弃这些张量的梯度
        mul_x.retain_grad()
        sum_x.retain_grad()

        # 关键步骤2: 将中间张量存储为模型实例的属性
        # 这样在forward方法执行后,我们可以在外部访问它们
        self.mul_x = mul_x
        self.sum_x = sum_x

        return sum_x

# 准备数据和模型
a_true = torch.Tensor([0.5])
b_true = torch.Tensor([0.8])
x_data = torch.linspace(-1, 1, 10)
# 模拟带有噪声的标签数据
y_label = a_true * x_data + (0.1**0.5) * torch.randn_like(x_data) * 0.001 + b_true
input_data = torch.linspace(-1, 1, 10)

model = func_NN()
loss_fn = nn.MSELoss()
optimizer = optim.Adam(model.parameters(), lr=0.001)

# 执行一次前向传播和反向传播
# 在实际训练中,这通常在一个循环内完成
optimizer.zero_grad() # 清零之前的梯度
output = model.forward(inp=input_data)
loss = loss_fn(y_label, output)
loss.backward() # 执行反向传播

# 反向传播完成后,现在可以访问中间张量的梯度了
print("mul_x 的梯度:")
print(model.mul_x.grad)
print("\nsum_x 的梯度:")
print(model.sum_x.grad)

# 注意:如果需要继续训练,通常会在这里调用 optimizer.step()
# optimizer.step()

代码解释

  1. mul_x.retain_grad() 和 sum_x.retain_grad(): 这两行代码是核心。它们告诉PyTorch的自动求导引擎,即使mul_x和sum_x不是叶子节点(即它们不是nn.Parameter),也要在反向传播完成后保留它们的梯度。
  2. self.mul_x = mul_x 和 self.sum_x = sum_x: 在forward方法中,我们将计算得到的mul_x和sum_x赋值给model实例的属性。这样,在forward方法执行完毕后,我们仍然可以通过model.mul_x和model.sum_x来访问这些张量,进而访问它们的.grad属性。
  3. loss.backward(): 执行反向传播,此时retain_grad()的作用开始生效,mul_x和sum_x的梯度会被计算并存储在其.grad属性中。
  4. print(model.mul_x.grad) 和 print(model.sum_x.grad): 在反向传播完成后,我们就可以打印出这些中间张量所对应的梯度了。

注意事项与最佳实践

  • 内存消耗:retain_grad()会增加内存消耗,因为它阻止了PyTorch在反向传播后立即释放这些中间张量的梯度。因此,不应在生产代码中对所有中间张量都使用retain_grad(),而应仅在调试或需要特定分析时使用。
  • 调试用途:获取中间梯度对于理解模型的内部工作机制、调试梯度消失/爆炸问题以及可视化梯度流非常有用。
  • 与模块钩子的区别
    • 模块钩子 (register_full_backward_hook): 用于在模块级别捕获或修改梯度输入/输出。它操作的是流经模块的数据流,而不是特定中间张量的梯度。
    • 张量钩子 (register_hook): 可以在任何张量上注册一个函数,该函数在计算该张量的梯度时被调用。这与retain_grad()结合使用可以实现更复杂的梯度操作或日志记录,但retain_grad()是访问.grad属性的前提。
  • grad属性的生命周期:一个张量的.grad属性在每次backward()调用后都会被累加。因此,在每次新的反向传播之前,通常需要通过optimizer.zero_grad()或手动将相关张量的.grad属性设置为None来清零梯度,以避免累积错误。对于通过retain_grad()保留的中间张量,它们的.grad属性也会被累加,如果需要在每次迭代中获取独立的梯度,也需手动清零。

总结

通过在PyTorch中对需要观察的中间张量调用.retain_grad()方法,并确保在反向传播后能够访问这些张量(例如,将它们存储为模型属性),可以有效地获取它们的梯度。这种方法对于深入理解模型行为、进行高级调试和分析梯度流具有不可替代的价值,但同时也需要注意其可能带来的内存开销。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
python中print函数的用法
python中print函数的用法

python中print函数的语法是“print(value1, value2, ..., sep=' ', end=' ', file=sys.stdout, flush=False)”。本专题为大家提供print相关的文章、下载、课程内容,供大家免费下载体验。

186

2023.09.27

pytorch是干嘛的
pytorch是干嘛的

pytorch是一个基于python的深度学习框架,提供以下主要功能:动态图计算,提供灵活性。强大的张量操作,实现高效处理。自动微分,简化梯度计算。预构建的神经网络模块,简化模型构建。各种优化器,用于性能优化。想了解更多pytorch的相关内容,可以阅读本专题下面的文章。

432

2024.05.29

Python AI机器学习PyTorch教程_Python怎么用PyTorch和TensorFlow做机器学习
Python AI机器学习PyTorch教程_Python怎么用PyTorch和TensorFlow做机器学习

PyTorch 是一种用于构建深度学习模型的功能完备框架,是一种通常用于图像识别和语言处理等应用程序的机器学习。 使用Python 编写,因此对于大多数机器学习开发者而言,学习和使用起来相对简单。 PyTorch 的独特之处在于,它完全支持GPU,并且使用反向模式自动微分技术,因此可以动态修改计算图形。

24

2025.12.22

Python 自然语言处理(NLP)基础与实战
Python 自然语言处理(NLP)基础与实战

本专题系统讲解 Python 在自然语言处理(NLP)领域的基础方法与实战应用,涵盖文本预处理(分词、去停用词)、词性标注、命名实体识别、关键词提取、情感分析,以及常用 NLP 库(NLTK、spaCy)的核心用法。通过真实文本案例,帮助学习者掌握 使用 Python 进行文本分析与语言数据处理的完整流程,适用于内容分析、舆情监测与智能文本应用场景。

10

2026.01.27

拼多多赚钱的5种方法 拼多多赚钱的5种方法
拼多多赚钱的5种方法 拼多多赚钱的5种方法

在拼多多上赚钱主要可以通过无货源模式一件代发、精细化运营特色店铺、参与官方高流量活动、利用拼团机制社交裂变,以及成为多多进宝推广员这5种方法实现。核心策略在于通过低成本、高效率的供应链管理与营销,利用平台社交电商红利实现盈利。

109

2026.01.26

edge浏览器怎样设置主页 edge浏览器自定义设置教程
edge浏览器怎样设置主页 edge浏览器自定义设置教程

在Edge浏览器中设置主页,请依次点击右上角“...”图标 > 设置 > 开始、主页和新建标签页。在“Microsoft Edge 启动时”选择“打开以下页面”,点击“添加新页面”并输入网址。若要使用主页按钮,需在“外观”设置中开启“显示主页按钮”并设定网址。

16

2026.01.26

苹果官方查询网站 苹果手机正品激活查询入口
苹果官方查询网站 苹果手机正品激活查询入口

苹果官方查询网站主要通过 checkcoverage.apple.com/cn/zh/ 进行,可用于查询序列号(SN)对应的保修状态、激活日期及技术支持服务。此外,查找丢失设备请使用 iCloud.com/find,购买信息与物流可访问 Apple (中国大陆) 订单状态页面。

138

2026.01.26

npd人格什么意思 npd人格有什么特征
npd人格什么意思 npd人格有什么特征

NPD(Narcissistic Personality Disorder)即自恋型人格障碍,是一种心理健康问题,特点是极度夸大自我重要性、需要过度赞美与关注,同时极度缺乏共情能力,背后常掩藏着低自尊和不安全感,影响人际关系、工作和生活,通常在青少年时期开始显现,需由专业人士诊断。

7

2026.01.26

windows安全中心怎么关闭 windows安全中心怎么执行操作
windows安全中心怎么关闭 windows安全中心怎么执行操作

关闭Windows安全中心(Windows Defender)可通过系统设置暂时关闭,或使用组策略/注册表永久关闭。最简单的方法是:进入设置 > 隐私和安全性 > Windows安全中心 > 病毒和威胁防护 > 管理设置,将实时保护等选项关闭。

6

2026.01.26

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
10分钟--Midjourney创作自己的漫画
10分钟--Midjourney创作自己的漫画

共1课时 | 0.1万人学习

Midjourney 关键词系列整合
Midjourney 关键词系列整合

共13课时 | 0.9万人学习

AI绘画教程
AI绘画教程

共2课时 | 0.2万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号