0

0

使用PyTorch训练神经网络计算坐标平方和

聖光之護

聖光之護

发布时间:2025-09-28 23:37:19

|

488人浏览过

|

来源于php中文网

原创

使用pytorch训练神经网络计算坐标平方和

本文详细阐述了如何使用PyTorch构建并训练一个神经网络,使其能够根据输入的二维坐标[x, y, 1]计算并输出x^2 + y^2。文章首先分析了初始实现中遇到的收敛困难,随后深入探讨了通过输入数据标准化、增加训练周期以及调整批量大小等关键优化策略来显著提升模型性能和收敛速度,并提供了完整的优化代码示例及原理分析。

引言:构建神经网络计算坐标平方和

深度学习实践中,我们经常需要训练神经网络来拟合特定的数学函数。本教程的目标是构建一个PyTorch神经网络,其输入为三维向量[x, y, 1](其中x和y是二维坐标),输出为这些坐标的平方和,即x^2 + y^2。尽管这个函数在数学上相对简单,但在神经网络的训练过程中,若不注意数据预处理和超参数设置,仍可能遇到模型难以收敛、损失值居高不下的问题。

原始实现与挑战分析

以下是最初尝试构建该神经网络的代码片段。该实现使用了一个带有单个隐藏层的全连接网络,并尝试了标准的训练流程。

import torch 
import torch.nn as nn
import numpy as np
from torch.utils.data import TensorDataset, DataLoader
import torch.optim 

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")

# 原始特征数据,包含大量在[-15, 15]范围内的坐标
features = torch.tensor([[8.3572,-11.3008,1],[6.2795,-12.5886,1],[4.0056,-13.4958,1]
                         ,[1.6219,-13.9933,1],[-0.8157,-14.0706,1],[-3.2280,-13.7250,1]
                         ,[-5.5392,-12.9598,1],[-7.6952,-11.8073,1],[-9.6076,-10.3035,1],
                         [-11.2532,-8.4668,1],[-12.5568,-6.3425,1],[-13.4558,-4.0691,1],
                         [-13.9484,-1.7293,1],[-14.0218,0.7224,1],[-13.6791,3.1211,1],
                         [-12.9064,5.4561,1],[-11.7489,7.6081,1],[-10.2251,9.5447,1],
                         [5.4804,12.8044,1],[7.6332,11.6543,1],[9.5543,10.1454,1],
                         [11.1890,8.3117,1],[12.4705,6.2460,1],[13.3815,3.9556,1],
                         [13.8733,1.5884,1],[13.9509,-0.8663,1],[13.6014,-3.2793,1],
                         [12.8572,-5.5526,1],[11.7042,-7.7191,1],[10.1761,-9.6745,1],
                         [-8.4301,11.1605,1],[-6.3228,12.4433,1],[-4.0701,13.3401,1],
                         [-1.6816,13.8352,1],[0.7599,13.9117,1],[3.1672,13.5653,1]]).to(device)

# 计算标签:x^2 + y^2
labels = []
for i in range(features.shape[0]):
    label=(features[i][0])**2+(features[i][1])**2
    labels.append(label)
labels = torch.tensor(labels).to(device)

# 定义网络结构
num_input ,num_hidden,num_output = 3,64,1
net = nn.Sequential(
    nn.Linear(num_input,num_hidden),
    nn.Linear(num_hidden,num_output)
).to(device)

# 权重初始化(偏置初始化未被应用)
def init_weights(m):
    if type(m) == nn.Linear:
        nn.init.xavier_normal_(m.weight)
net.apply(init_weights)

loss = nn.MSELoss()
num_epochs = 10
batch_size = 6
lr=0.001
trainer = torch.optim.RAdam(net.parameters(),lr=lr)
dataset = TensorDataset(features,labels)
data_loader = DataLoader(dataset,batch_size=batch_size,shuffle=True)

# 训练循环
for i in range (num_epochs):
    for X,y in data_loader:
        y_hat = net(X)
        l = loss(y_hat,y.reshape(y_hat.shape))
        trainer.zero_grad()
        l.backward()
        trainer.step()
    with torch.no_grad():
        print(f"Epoch {i+1}, Loss: {l.item():.4f}")

运行上述代码会发现,经过10个epoch的训练,损失值仍然很高,模型未能有效学习到目标函数。这通常是由以下几个原因造成的:

  1. 输入数据未标准化: 原始的x和y坐标范围较大(约-15到15),这可能导致神经网络在训练初期面临较大的梯度,使得优化器难以找到合适的更新方向,甚至引发梯度爆炸或消失。
  2. 训练周期不足: 仅10个epoch对于一个需要学习非线性关系的神经网络来说,可能不足以使其充分收敛。
  3. 批量大小选择: 批量大小的选择会影响训练的稳定性和收敛速度。过大可能导致泛化能力下降,过小可能导致训练不稳定。

优化策略与改进实践

为了解决上述问题并提高模型的收敛性,我们可以采取以下关键优化策略:

1. 数据预处理:输入特征标准化

标准化(Standardization)是将数据转换成均值为0、标准差为1的分布,是深度学习中常用的数据预处理技术。它有助于:

  • 加速收敛: 标准化后的数据能使损失函数更“平滑”,避免在某些维度上梯度过大或过小,从而帮助优化器更快地找到最优解。
  • 防止梯度问题: 减小了输入特征之间的尺度差异,有助于缓解梯度消失或爆炸的问题。

我们可以对features的前两列(即x和y坐标)进行标准化处理:

mean = features[:,:2].mean(dim=0)
std = features[:,:2].std(dim=0)
features[:,:2] = (features[:,:2] - mean) / std

注意,这里只对x和y坐标进行了标准化,因为第三列是一个常数1,它不参与计算x^2+y^2,并且作为偏置项的输入,通常不需要标准化。

QIMI奇觅
QIMI奇觅

美图推出的游戏行业广告AI制作与投放一体化平台

下载

2. 训练参数调整:增加Epochs与调整Batch Size

  • 增加训练周期(num_epochs): 更多的训练周期意味着模型有更多机会遍历整个数据集并调整其权重。对于复杂的函数拟合,增加训练周期通常是必要的。
  • 调整批量大小(batch_size): 批量大小的选择是一个经验性的过程。较小的批量通常能提供更频繁的权重更新,可能有助于跳出局部最优,但也可能导致训练过程更加震荡。对于本例,适当减小批量大小可能会带来更好的收敛效果。

根据经验,我们可以将num_epochs增加到100,并将batch_size调整为2:

num_epochs = 100
batch_size = 2

整合优化后的PyTorch代码

将上述优化策略整合到原始代码中,得到以下改进后的实现:

import torch 
import torch.nn as nn
import numpy as np
from torch.utils.data import TensorDataset, DataLoader
import torch.optim 

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")

features = torch.tensor([[8.3572,-11.3008,1],[6.2795,-12.5886,1],[4.0056,-13.4958,1]
                         ,[1.6219,-13.9933,1],[-0.8157,-14.0706,1],[-3.2280,-13.7250,1]
                         ,[-5.5392,-12.9598,1],[-7.6952,-11.8073,1],[-9.6076,-10.3035,1],
                         [-11.2532,-8.4668,1],[-12.5568,-6.3425,1],[-13.4558,-4.0691,1],
                         [-13.9484,-1.7293,1],[-14.0218,0.7224,1],[-13.6791,3.1211,1],
                         [-12.9064,5.4561,1],[-11.7489,7.6081,1],[-10.2251,9.5447,1],
                         [5.4804,12.8044,1],[7.6332,11.6543,1],[9.5543,10.1454,1],
                         [11.1890,8.3117,1],[12.4705,6.2460,1],[13.3815,3.9556,1],
                         [13.8733,1.5884,1],[13.9509,-0.8663,1],[13.6014,-3.2793,1],
                         [12.8572,-5.5526,1],[11.7042,-7.7191,1],[10.1761,-9.6745,1],
                         [-8.4301,11.1605,1],[-6.3228,12.4433,1],[-4.0701,13.3401,1],
                         [-1.6816,13.8352,1],[0.7599,13.9117,1],[3.1672,13.5653,1]]).to(device)

# --- 优化点1: 输入数据标准化 ---
mean = features[:,:2].mean(dim=0)
std = features[:,:2].std(dim=0)
features[:,:2] = (features[:,:2] - mean) / std

labels = []
for i in range(features.shape[0]):
    label=(features[i][0])**2+(features[i][1])**2
    labels.append(label)
labels = torch.tensor(labels).to(device)

num_input ,num_hidden,num_output = 3,64,1
net = nn.Sequential(
    nn.Linear(num_input,num_hidden),
    nn.Linear(num_hidden,num_output)
).to(device)

def init_weights(m):
    if type(m) == nn.Linear:
        nn.init.xavier_normal_(m.weight)
net.apply(init_weights)

loss = nn.MSELoss()

# --- 优化点2: 调整训练周期和批量大小 ---
num_epochs = 100 # 增加训练周期
batch_size = 2   # 调整批量大小
lr=0.001
trainer = torch.optim.RAdam(net.parameters(),lr=lr)
dataset = TensorDataset(features,labels)
data_loader = DataLoader(dataset,batch_size=batch_size,shuffle=True)

for i in range (num_epochs):
    for X,y in data_loader:
        y_hat = net(X)
        l = loss(y_hat,y.reshape(y_hat.shape))
        trainer.zero_grad()
        l.backward()
        trainer.step()
    with torch.no_grad():
        # 打印每个epoch结束时的损失值
        print(f"Epoch {i+1}, Loss: {l.item():.4f}")

运行上述优化后的代码,你会发现模型能够显著降低损失值,并最终收敛到一个较低的误差水平。

改进效果与原理分析

  • 数据标准化:通过将输入特征缩放到相似的范围,我们有效地帮助了优化器。在未标准化的数据上,如果某个特征的数值范围远大于其他特征,其对应的权重更新可能会主导整个梯度下降过程,导致训练不稳定。标准化消除了这种尺度差异,使得每个特征对损失函数的贡献更加均衡,从而加速了收敛。
  • 增加训练周期:x^2 + y^2是一个非线性函数,尽管只有一个隐藏层,模型仍需要足够的时间来学习和近似这个复杂的映射关系。100个epoch为模型提供了充足的学习机会,使其能够逐步调整权重以更好地拟合数据。
  • 调整批量大小:将batch_size从6调整到2,使得模型在每个epoch内进行更频繁的权重更新。虽然这可能导致每次更新的梯度估计噪声更大,但在某些情况下,这种频繁更新有助于模型更快地探索损失函数的曲面,避免陷入较差的局部最优。

进一步的优化建议

除了上述改进,在实际的神经网络训练中,还可以考虑以下优化策略:

  1. 学习率调度(Learning Rate Scheduling):在训练过程中动态调整学习率,例如从较大的学习率开始,然后逐渐减小。这有助于在训练初期快速收敛,并在后期更精细地调整权重。
  2. 激活函数选择:虽然本例中没有显式指定隐藏层的激活函数(默认是线性),但对于更复杂的非线性问题,选择ReLU、Sigmoid或Tanh等非线性激活函数是至关重要的。
  3. 更复杂的网络结构:如果目标函数更加复杂,可能需要增加隐藏层的数量或每层神经元的数量。
  4. 正则化技术:如L1/L2正则化或Dropout,可以帮助防止模型过拟合,提高泛化能力。
  5. 不同的优化器:虽然RAdam是一个强大的优化器,但在某些情况下,Adam、SGD with Momentum等也可能表现出色。

总结

本教程通过一个具体的例子,展示了如何使用PyTorch训练一个神经网络来拟合x^2 + y^2函数。核心 takeaway 是,成功的神经网络训练不仅仅依赖于网络架构本身,更离不开有效的数据预处理细致的超参数调优。通过对输入数据进行标准化、增加训练周期以及调整批量大小,我们能够显著改善模型的收敛性能,使其能够有效学习并拟合目标函数。这些实践经验对于解决更广泛的深度学习问题同样具有指导意义。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
pytorch是干嘛的
pytorch是干嘛的

pytorch是一个基于python的深度学习框架,提供以下主要功能:动态图计算,提供灵活性。强大的张量操作,实现高效处理。自动微分,简化梯度计算。预构建的神经网络模块,简化模型构建。各种优化器,用于性能优化。想了解更多pytorch的相关内容,可以阅读本专题下面的文章。

433

2024.05.29

Python AI机器学习PyTorch教程_Python怎么用PyTorch和TensorFlow做机器学习
Python AI机器学习PyTorch教程_Python怎么用PyTorch和TensorFlow做机器学习

PyTorch 是一种用于构建深度学习模型的功能完备框架,是一种通常用于图像识别和语言处理等应用程序的机器学习。 使用Python 编写,因此对于大多数机器学习开发者而言,学习和使用起来相对简单。 PyTorch 的独特之处在于,它完全支持GPU,并且使用反向模式自动微分技术,因此可以动态修改计算图形。

24

2025.12.22

clawdbot ai使用教程 保姆级clawdbot部署安装手册
clawdbot ai使用教程 保姆级clawdbot部署安装手册

Clawdbot是一个“有灵魂”的AI助手,可以帮用户清空收件箱、发送电子邮件、管理日历、办理航班值机等等,并且可以接入用户常用的任何聊天APP,所有的操作均可通过WhatsApp、Telegram等平台完成,用户只需通过对话,就能操控设备自动执行各类任务。

7

2026.01.29

clawdbot龙虾机器人官网入口 clawdbot ai官方网站地址
clawdbot龙虾机器人官网入口 clawdbot ai官方网站地址

clawdbot龙虾机器人官网入口:https://clawd.bot/,clawdbot ai是一个“有灵魂”的AI助手,可以帮用户清空收件箱、发送电子邮件、管理日历、办理航班值机等等,并且可以接入用户常用的任何聊天APP,所有的操作均可通过WhatsApp、Telegram等平台完成,用户只需通过对话,就能操控设备自动执行各类任务。

1

2026.01.29

Golang 网络安全与加密实战
Golang 网络安全与加密实战

本专题系统讲解 Golang 在网络安全与加密技术中的应用,包括对称加密与非对称加密(AES、RSA)、哈希与数字签名、JWT身份认证、SSL/TLS 安全通信、常见网络攻击防范(如SQL注入、XSS、CSRF)及其防护措施。通过实战案例,帮助学习者掌握 如何使用 Go 语言保障网络通信的安全性,保护用户数据与隐私。

5

2026.01.29

俄罗斯Yandex引擎入口
俄罗斯Yandex引擎入口

2026年俄罗斯Yandex搜索引擎最新入口汇总,涵盖免登录、多语言支持、无广告视频播放及本地化服务等核心功能。阅读专题下面的文章了解更多详细内容。

514

2026.01.28

包子漫画在线官方入口大全
包子漫画在线官方入口大全

本合集汇总了包子漫画2026最新官方在线观看入口,涵盖备用域名、正版无广告链接及多端适配地址,助你畅享12700+高清漫画资源。阅读专题下面的文章了解更多详细内容。

183

2026.01.28

ao3中文版官网地址大全
ao3中文版官网地址大全

AO3最新中文版官网入口合集,汇总2026年主站及国内优化镜像链接,支持简体中文界面、无广告阅读与多设备同步。阅读专题下面的文章了解更多详细内容。

313

2026.01.28

php怎么写接口教程
php怎么写接口教程

本合集涵盖PHP接口开发基础、RESTful API设计、数据交互与安全处理等实用教程,助你快速掌握PHP接口编写技巧。阅读专题下面的文章了解更多详细内容。

10

2026.01.28

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
Java 教程
Java 教程

共578课时 | 52.9万人学习

国外Web开发全栈课程全集
国外Web开发全栈课程全集

共12课时 | 1.0万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号