0

0

批量、小批量和随机梯度下降

碧海醫心

碧海醫心

发布时间:2024-11-18 08:39:26

|

1198人浏览过

|

来源于dev.to

转载

请我喝杯咖啡☕

*备忘录:

  • 我的文章解释了 PyTorch 中使用 DataLoader() 进行批量、小批量和随机梯度下降。
  • 我的文章解释了 PyTorch 中不使用 DataLoader() 的批量梯度下降。
  • 我的文章解释了 PyTorch 中的优化器。

有批量梯度下降(BGD)、小批量梯度下降(MBGD)和随机梯度下降(SGD),它们是如何从数据集中获取数据使用梯度下降的方法PyTorch 中的优化器,例如 Adam()、SGD()、RMSprop()、Adadelta()、Adagrad() 等。

*备忘录:

  • PyTorch 中的 SGD() 只是基本的梯度下降,没有特殊功能(经典梯度下降(CGD)),而不是随机梯度下降(SGD)。
  • 例如,使用下面这些方式,您可以灵活地使用 Adam() 执行 BGD、MBGD 或 SGD Adam,使用 SGD() 执行 CGD,使用 RMSprop() 执行 RMSprop,使用 Adadelta() 执行 Adadelta,使用 Adagrad() 执行 Adagrad, PyTorch 中的等。
  • 基本上,BGD、MBGD 或 SGD 是通过 DataLoader() 对数据集进行混洗来完成的: *备注:
    • 改组数据集可以缓解过度拟合。 *基本上,只有训练数据被打乱,因此测试数据不会被打乱。
    • 我的帖子解释了过拟合和欠拟合。

批量、小批量和随机梯度下降

(1)批量梯度下降(BGD):

  • 可以对整个数据集进行梯度下降,在一个时期内只采取一步。例如,整个数据集有 100 个样本(1x100),那么梯度下降在一个 epoch 中只发生一次,这意味着模型的参数在一个 epoch 中只更新一次。
  • 使用整个数据集的平均值,因此每个样本不如 MBGD 和 SGD 那么突出(不太强调)。因此,收敛比 MBGD 和 SGD 更稳定(波动更小),并且比 MBGD 和 SGD 的噪声(噪声数据)更强,导致比 MBGD 和 SGD 更少的超调,并且创建比 MBGD 和 SGD 更准确的模型,如果没有陷入局部最小值,但 BGD 比 MBGD 和 SGD 更不容易逃脱局部最小值或鞍点,因为收敛比 MBGD 和 SGD 更稳定(波动更小),正如我之前所说,BGD 比 MBGD 和 SGD 更容易导致过拟合,因为每个正如我之前所说,样本不如 MBGD 和 SGD 突出(不太强调)。 *备注:
    • 收敛表示初始权重通过梯度下降向函数的全局最小值移动。
    • 噪声(噪声数据) 表示离群值、异常或有时重复的数据。
    • 超调意味着跳过函数的全局最小值。
  • 的优点:
    • 收敛比 MBGD 和 SGD 更稳定(波动更小)。
    • 它的噪声(噪声数据)比 MBGD 和 SGD 强。
    • 它比 MBGD 和 SGD 更少导致过冲。
    • 如果没有陷入局部最小值,它会创建比 MBGD 和 SGD 更准确的模型。
  • 的缺点:
    • 它不擅长在线学习等大型数据集,因为它需要大量内存,减慢收敛速度。 *在线学习是模型从数据集流中实时增量学习的方式。
    • 如果你想更新模型,需要重新准备整个数据集。
    • 与 MBGD 和 SGD 相比,它更不容易逃脱局部最小值或鞍点。
    • 比 MBGD 和 SGD 更容易导致过拟合。

(2)小批量梯度下降(MBGD):

  • 可以用分割的数据集(整个数据集的小批量)一小批一小批地进行梯度下降,在一个时期内采取与整个数据集的小批量相同的步数。例如,将具有 100 个样本(1x100)的整个数据集分为 5 个小批次(5x20),然后梯度下降在一个 epoch 中发生 5 次,这意味着模型的参数在 1 epoch 中更新 5 次。
  • 使用从整个数据集中分割出来的每个小批次的平均值,因此每个样本比 BDG 更突出(更强调)。 *将整个数据集分成更小的批次可以使每个样本越来越突出(越来越强调)。因此,收敛比 BGD 更不稳定(更波动),而且噪声(噪声数据)也比 BGD 弱,比 BGD 更容易导致过冲,并且即使没有陷入局部极小值,也会创建比 BGD 更不准确的模型,但MBGD 比 BGD 更容易逃脱局部最小值或鞍点,因为正如我之前所说,收敛比 BGD 更不稳定(更波动),MBGD 比 BGD 更不容易导致过度拟合,因为每个样本比 BGD 更突出(更强调),因为我之前说过。

    Ecshop批量生成购买记录自动评价插件
    Ecshop批量生成购买记录自动评价插件

    本插件支持2.7.2和2.7.3最新UTF-8版本最新升级(2012-10-08)1.可以批量选择商品生成评价和购买记录2.可以灵活控制生成的购买数量和评价数量.真正的真实购买记录.( 新升级版本改动如下:生成评价的时候会随机隐藏某些评价.只生成购买记录(你也可以自己选择某些要隐藏的评价).这样购买数量和评价数量相差40%左右,提高真实性 )生成的购买数量和评价数量 是真正的黄金比例,进一步提高真

    下载
  • 的优点:

    • 它比 BGD 更适合在线学习等大型数据集,因为它比 BGD 占用的内存更小,并且比 BGD 更不会减慢收敛速度。
    • 如果你想更新模型,不需要重新准备整个数据集。
    • 它比 BGD 更容易逃脱局部最小值或鞍点。
    • 比 BGD 更不容易导致过拟合。
  • 的缺点:

    • 收敛性比 BGD 更不稳定(波动更大)。
    • 它的噪声(噪声数据)不如 BGD 强。
    • 它比 BGD 更容易导致过冲。
    • 即使没有陷入局部最小值,它也会创建一个不如 BGD 准确的模型。

(3) 随机梯度下降(SGD):

  • 可以对整个数据集的每个样本进行梯度下降,一个样本一个样本,在一个时期内采取与整个数据集的样本相同的步数。例如,整个数据集有 100 个样本(1x100),那么梯度下降在一个 epoch 内发生 100 次,这意味着模型的参数在一个 epoch 内更新 100 次。
  • 使用整个数据集的每一个样本逐个样本而不是平均值,因此每个样本比 MBGD 更突出(更强调)。因此,收敛比 MBGD 更不稳定(更波动),并且噪声(噪声数据)也比 MBGD 弱,比 MBGD 更容易导致过冲,并且即使没有陷入局部极小值,也会创建比 MBGD 更不准确的模型,但SGD 比 MBGD 更容易逃脱局部最小值或鞍点,因为正如我之前所说,收敛比 MBGD 更不稳定(更波动),并且 SGD 比 MBGD 更不容易导致过度拟合,因为每个样本比 MBGD 更突出(更强调),因为我之前说过。

  • 的优点:

    • 在在线学习等大型数据集上,它比 MBGD 更好,因为它比 MBGD 占用的内存更小,比 MBGD 更不会减慢收敛速度。
    • 如果你想更新模型,不需要重新准备整个数据集。
    • 它比 MBGD 更容易逃脱局部最小值或鞍点。
    • 比 MBGD 更不容易导致过拟合。
  • 的缺点:

    • 收敛性比 MBGD 更不稳定(波动更大)。
    • 它的噪声(噪声数据)不如 MBGD 强。
    • 它比 MBGD 更容易导致过冲。
    • 如果没有陷入局部最小值,它会创建一个不如 MBGD 准确的模型。

相关标签:

本站声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
pytorch是干嘛的
pytorch是干嘛的

pytorch是一个基于python的深度学习框架,提供以下主要功能:动态图计算,提供灵活性。强大的张量操作,实现高效处理。自动微分,简化梯度计算。预构建的神经网络模块,简化模型构建。各种优化器,用于性能优化。想了解更多pytorch的相关内容,可以阅读本专题下面的文章。

433

2024.05.29

Python AI机器学习PyTorch教程_Python怎么用PyTorch和TensorFlow做机器学习
Python AI机器学习PyTorch教程_Python怎么用PyTorch和TensorFlow做机器学习

PyTorch 是一种用于构建深度学习模型的功能完备框架,是一种通常用于图像识别和语言处理等应用程序的机器学习。 使用Python 编写,因此对于大多数机器学习开发者而言,学习和使用起来相对简单。 PyTorch 的独特之处在于,它完全支持GPU,并且使用反向模式自动微分技术,因此可以动态修改计算图形。

24

2025.12.22

go语言 注释编码
go语言 注释编码

本专题整合了go语言注释、注释规范等等内容,阅读专题下面的文章了解更多详细内容。

32

2026.01.31

go语言 math包
go语言 math包

本专题整合了go语言math包相关内容,阅读专题下面的文章了解更多详细内容。

23

2026.01.31

go语言输入函数
go语言输入函数

本专题整合了go语言输入相关教程内容,阅读专题下面的文章了解更多详细内容。

16

2026.01.31

golang 循环遍历
golang 循环遍历

本专题整合了golang循环遍历相关教程,阅读专题下面的文章了解更多详细内容。

5

2026.01.31

Golang人工智能合集
Golang人工智能合集

本专题整合了Golang人工智能相关内容,阅读专题下面的文章了解更多详细内容。

5

2026.01.31

2026赚钱平台入口大全
2026赚钱平台入口大全

2026年最新赚钱平台入口汇总,涵盖任务众包、内容创作、电商运营、技能变现等多类正规渠道,助你轻松开启副业增收之路。阅读专题下面的文章了解更多详细内容。

267

2026.01.31

高干文在线阅读网站大全
高干文在线阅读网站大全

汇集热门1v1高干文免费阅读资源,涵盖都市言情、京味大院、军旅高干等经典题材,情节紧凑、人物鲜明。阅读专题下面的文章了解更多详细内容。

195

2026.01.31

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号