
本文深入探讨了 pytorch 中 `add_()` 等原地操作在广播机制下引发 `runtimeerror` 的原因。核心在于原地操作试图直接修改原始张量,而当广播结果的形状与原始张量形状不匹配时,无法在现有内存空间中完成操作。文章通过对比 numpy 和 pytorch 的行为,并提供正确的使用示例,帮助读者理解并避免此类常见错误。
PyTorch 广播机制概述
PyTorch 的广播(Broadcasting)机制允许不同形状的张量在某些条件下执行算术运算,而无需显式地复制数据以使它们具有相同的形状。其基本规则如下:
- 维度匹配: 从尾部维度开始比较两个张量的维度。
- 维度兼容: 如果两个维度相等,或者其中一个维度为 1,则这两个维度是兼容的。
- 维度扩展: 如果其中一个维度为 1,它将被扩展以匹配另一个维度的大小。
- 维度不兼容: 如果维度不相等且都不为 1,则广播无法进行,会抛出错误。
例如,一个形状为 (1, 3, 1) 的张量与一个形状为 (3, 1, 7) 的张量进行加法运算时,根据广播规则,它们可以扩展为 (3, 3, 7) 的形状进行逐元素操作。
原地操作 (add_) 与非原地操作 (+) 的区别
在 PyTorch 中,许多操作都提供两种形式:
- 非原地操作 (Out-of-place operations): 例如 x + y 或 torch.add(x, y)。这些操作会计算结果并返回一个新的张量,原始张量 x 和 y 保持不变。
- 原地操作 (In-place operations): 例如 x.add_(y)。这些操作会直接修改调用它们的张量(在本例中是 x),并返回对该张量的引用。通常,原地操作的函数名以 _ 结尾。
理解这两种操作的区别是解决本文所讨论问题的关键。
add_() 报错原因分析:原地操作的内存限制
当尝试执行以下 PyTorch 代码时,会遇到 RuntimeError:
import torch x = torch.empty(1, 3, 1) y = torch.empty(3, 1, 7) # 尝试原地加法操作 (x.add_(y)).size()
报错信息如下: RuntimeError: output with shape [1, 3, 1] doesn't match the broadcast shape [3, 3, 7]
这个错误清楚地指出了问题所在:x 的原始形状 [1, 3, 1] 与广播后的预期形状 [3, 3, 7] 不匹配。
根本原因在于:
- 内存分配: PyTorch 张量在创建时会分配一块固定大小的内存空间来存储其数据。x=torch.empty(1,3,1) 为 x 分配了对应 (1, 3, 1) 形状所需的内存。
- 原地修改的限制: x.add_(y) 意味着 PyTorch 尝试在 x 当前占用的内存空间内完成 x = x + y 的操作。
- 形状不兼容: 尽管 x 和 y 可以通过广播机制生成一个 (3, 3, 7) 形状的结果,但这个结果的形状远大于 x 的原始形状 (1, 3, 1)。PyTorch 无法在不重新分配内存的情况下,将一个 (1, 3, 1) 的张量“扩展”成一个 (3, 3, 7) 的张量并原地存储结果。因此,它会检查 x 的形状是否与广播结果的形状兼容,如果 x 的存储空间不足以容纳广播后的结果,就会抛出错误。
PyTorch 官方文档对此有明确说明:“对于原地操作,原地张量必须能够与另一个张量进行广播,并且原地张量的存储必须足够大以存储结果。如果原地张量的存储不够大,则会引发错误。”
与 NumPy 的对比
为了更好地理解 PyTorch 的行为,我们可以对比 NumPy 的相同操作:
import numpy as np x_np = np.empty((1, 3, 1)) y_np = np.empty((3, 1, 7)) # NumPy 的加法操作 (x_np + y_np).shape # Output: (3, 3, 7)
NumPy 能够正确执行并生成 (3, 3, 7) 形状的结果。这是因为 NumPy 的 + 运算符默认执行的是非原地操作。它会创建一个全新的数组来存储 x_np 和 y_np 广播后的结果,而不是尝试修改 x_np 的原始内存。因此,NumPy 不会遇到 PyTorch 中因原地修改导致的内存/形状不匹配问题。
正确实践与解决方案
要避免 PyTorch 中 add_() 等原地操作在广播时引发的 RuntimeError,应采取以下策略:
-
优先使用非原地操作: 这是最推荐的做法。当需要进行广播运算时,使用非原地操作(如 + 运算符或 torch.add() 函数),它们会返回一个新的张量,而不会尝试修改原始张量。
import torch x = torch.empty(1, 3, 1) y = torch.empty(3, 1, 7) # 使用非原地操作 result = x + y print(result.size()) # Output: torch.Size([3, 3, 7]) # 或者使用 torch.add() result_add = torch.add(x, y) print(result_add.size()) # Output: torch.Size([3, 3, 7])
-
理解原地操作的适用场景: 原地操作通常用于:
- 在不改变张量形状的情况下,对其元素进行修改(例如 x.zero_() 或 x.mul_(2))。
- 当目标张量已经具有与广播结果兼容的形状时(例如,两个相同形状的张量进行原地加法)。
- 在内存受限的环境中,如果确定原地修改不会改变张量大小,可以节省内存。
总结与注意事项
PyTorch 的原地操作(以 _ 结尾的函数)提供了内存优化的可能性,但它们也引入了额外的限制。在进行涉及广播的运算时,务必注意以下几点:
- 原地操作 add_() 要求目标张量(即被修改的张量)的形状必须能够容纳广播后的结果。 如果广播后的结果形状大于目标张量的原始形状,将引发 RuntimeError。
- 非原地操作 + 或 torch.add() 总是创建一个新的张量来存储结果,因此它们不会受到原始张量形状的限制。
- 在 PyTorch 中,当您看到 RuntimeError: output with shape [...] doesn't match the broadcast shape [...] 这样的错误时,首先检查是否使用了原地操作,并考虑改用非原地操作来解决。
理解 PyTorch 中原地操作与非原地操作之间的细微差别,以及它们与广播机制的交互方式,对于编写健壮且高效的 PyTorch 代码至关重要。










