0

0

EdgeViTs的一些改进以及完全体复现

P粉084495128

P粉084495128

发布时间:2025-07-31 13:35:29

|

471人浏览过

|

来源于php中文网

原创

本文回顾EdgeViTs复现,介绍BN、LN、GN区别,详述复现详情:将原始结构的LN层换为GN层,把FFN层双层全连接层改为两层卷积层,复现了不同计算复杂度下的结构,还包括模型组成及实验,用Flowers数据集训练并可视化过程。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

edgevits的一些改进以及完全体复现 - php中文网

EdgeViTs的一些改进以及完全体复现

1 前言

1.1 EdgeViTs复现回顾

  在上一篇文章中,带大家对EdgeViTs中的主要模块LGL进行了复现,并且在Cifar10数据集上进行了实验。在本篇文章中对EdgeViTs的完全体进行了复现,并且在原作的基础上,做出来一些改进。

1.2 BN LN GN的区别

  作为神经网络中的重要组成部分,批处理归一化(BN)层有各种形态:Batch Normalization (BN)、Layer Normalization (LN)、Instance Normalization (IN)、Group Normalization (GN)。从公式看它们都差不多:即减去均值,除以标准差,再施以线性映射。

EdgeViTs的一些改进以及完全体复现 - php中文网

这些归一化算法的主要区别在于操作的 feature map 维度不同。BN对batch size有依赖,当batch size较大时,有不错的效果。而LN、IN、GN能够摆脱这种依赖,其中GN效果最好。

1.3 Batch Normalization (BN)

  具体来说,就是把第1个样本的第1个通道,加上第2个样本第1个通道 ...... 加上第 N 个样本第1个通道,求平均,得到通道 1 的均值(注意是除以 N×H×W 而不是单纯除以 N,最后得到的是一个代表这个 batch 第1个通道平均值的数字,而不是一个 H×W 的矩阵)。求通道 1 的方差也是同理。对所有通道都施加一遍这个操作,就得到了所有通道的均值和方差。

EdgeViTs的一些改进以及完全体复现 - php中文网

1.4 Layer Normalization(LN)

  Layer Normalization (LN) 的一个优势是不需要批训练,在单条数据内部就能归一化。LN 对每个样本的 C、H、W 维度上的数据求均值和标准差,保留 N 维度。其均值和标准差公式为:

EdgeViTs的一些改进以及完全体复现 - php中文网

1.5 Group Normalization (GN)

  GN 计算均值和标准差时,把每一个样本 feature map 的 channel 分成 G 组,每组将有 C/G 个 channel,然后将这些 channel 中的元素求均值和标准差。各组 channel 用其对应的归一化参数独立地归一化。

php商城系统
php商城系统

PHP商城系统是国内功能优秀的网上商城系统,同时也是一个商业的PHP开发框架,有多套免费模版,强大的后台管理功能,专业的网上商城系统解决方案,快速建设网上购物商城、数码商城、手机商城、办公用品商城等网站。 php商城系统v3.0 rc6升级 1、主要修复用户使用中出现的js未加载完报错问题,后台整改、以及后台栏目的全新部署、更利于用户体验。 2、扩展出,更多系统内部的功能,以便用户能够迅速找到需

下载

EdgeViTs的一些改进以及完全体复现 - php中文网

BN LN GN的区别主要参考BN、LN、IN、GN的简介更详细的介绍大家可以点击该链接进行查阅。

2 复现详情

  对于绝大部分的transformer来说,其归一化层都选择LN,LN最初使用在自然语言中,在transformer应用在了图像之后,大家对其未做更改,并且该LN层在实际的应用中效果不错,所以大家在实际的使用中对其未做更改,在本项目中,对原始的结构中的LN层进行了替换,使用GN层作为归一化层,并且将其FFN层中的双层全连接层更改为两层卷积层。具体如下所示:

EdgeViTs的一些改进以及完全体复现 - php中文网

  论文作者在不同的计算复杂度(具体为0.5G、1G和2G)下构建了一系列具有本文所提出的LGL bottleneck的EdgeViTs。下图总结了这些配置。在本项目中,对下面所列的结构均进行了复现。

EdgeViTs的一些改进以及完全体复现 - php中文网

  继之前的分层ViT之后,EdgeViTs由四个具有空间分辨率的阶段组成(即token序列长度),自注意力模块逐渐减少,取而代之的是我们的LGL bottleneck。对于每个阶段的下采样,作者使用了一个conv层,核大小为2×2,步长为2,除了第一阶段,作者按×4下采样输入特征,并使用4×4和步长为4的核。作者采用了条件位置编码,这已被证明优于绝对位置编码。这可以使用2D depth-wise卷积加上残差连接来实现。在提出的模型中,作者使用具有零填充的3×3 depth-wise卷积,在局部聚合及全局稀疏自注意力之前。FFN由两个线性层组成,其中GeLU非线性激活函数位于两者之间。模型的局部聚合操作可以通过point-wise和depth-wise卷积堆叠实现。全局稀疏注意力由四个阶段采样率为(4,2,2,1)的空间均匀采样器和标准MHSA组成。局部传播通过深度可分离转置卷积实现,其kernel大小和步长等于全局稀疏注意力中使用的采样率。

3 模型实验

In [ ]
from edgevit import EdgeViT_XXS, EdgeViT_XS, EdgeViT_Simport paddle

model = EdgeViT_XXS()

paddle.summary(model,(1,3,224,224))
In [ ]
import paddlefrom paddle.metric import Accuracyfrom paddle.vision.datasets import Flowersfrom paddle.vision.transforms import Compose, Normalize, Resize, Transpose, ToTensor

callback = paddle.callbacks.VisualDL(log_dir='visualdl_log_dir')

normalize = Normalize(mean=[0.5, 0.5, 0.5],
                    std=[0.5, 0.5, 0.5],
                    data_format='HWC')
transform = Compose([ToTensor(), Normalize(), Resize(size=(224,224))])

cifar10_train = paddle.vision.datasets.Flowers(mode='train',
                                               transform=transform)
cifar10_test = paddle.vision.datasets.Flowers(mode='test',
                                              transform=transform)# 构建训练集数据加载器train_loader = paddle.io.DataLoader(cifar10_train, batch_size=128, shuffle=True)# 构建测试集数据加载器test_loader = paddle.io.DataLoader(cifar10_test, batch_size=128, shuffle=True)

model = paddle.Model(EdgeViT_XXS())
optim = paddle.optimizer.Adam(learning_rate=0.001, parameters=model.parameters())

model.prepare(
    optim,
    paddle.nn.CrossEntropyLoss(),
    Accuracy()
    )

model.fit(train_data=train_loader,
        eval_data=test_loader,
        epochs=20,
        callbacks=callback,
        verbose=1
        )

3.1 可视化训练过程

EdgeViTs的一些改进以及完全体复现 - php中文网

相关文章

Edge浏览器
Edge浏览器

Edge浏览器是由Microsoft(微软中国)官方推出的全新一代手机浏览器。Edge浏览器内置强大的搜索引擎,一站搜索全网,搜文字、搜图片,快速识别,帮您找到想要的内容。有需要的小伙伴快来保存下载体验吧!

下载

本站声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

相关专题

更多
登录token无效
登录token无效

登录token无效解决方法:1、检查token的有效期限,如果token已经过期,需要重新获取一个新的token;2、检查token的签名,如果签名不正确,需要重新获取一个新的token;3、检查密钥的正确性,如果密钥不正确,需要重新获取一个新的token;4、使用HTTPS协议传输token,建议使用HTTPS协议进行传输 ;5、使用双因素认证,双因素认证可以提高账户的安全性。

6100

2023.09.14

登录token无效怎么办
登录token无效怎么办

登录token无效的解决办法有检查Token是否过期、检查Token是否正确、检查Token是否被篡改、检查Token是否与用户匹配、清除缓存或Cookie、检查网络连接和服务器状态、重新登录或请求新的Token、联系技术支持或开发人员等。本专题为大家提供token相关的文章、下载、课程内容,供大家免费下载体验。

810

2023.09.14

token怎么获取
token怎么获取

获取token值的方法:1、小程序调用“wx.login()”获取 临时登录凭证code,并回传到开发者服务器;2、开发者服务器以code换取,用户唯一标识openid和会话密钥“session_key”。想了解更详细的内容,可以阅读本专题下面的文章。

1063

2023.12.21

token什么意思
token什么意思

token是一种用于表示用户权限、记录交易信息、支付虚拟货币的数字货币。可以用来在特定的网络上进行交易,用来购买或出售特定的虚拟货币,也可以用来支付特定的服务费用。想了解更多token什么意思的相关内容可以访问本专题下面的文章。

1268

2024.03.01

堆和栈的区别
堆和栈的区别

堆和栈的区别:1、内存分配方式不同;2、大小不同;3、数据访问方式不同;4、数据的生命周期。本专题为大家提供堆和栈的区别的相关的文章、下载、课程内容,供大家免费下载体验。

392

2023.07.18

堆和栈区别
堆和栈区别

堆(Heap)和栈(Stack)是计算机中两种常见的内存分配机制。它们在内存管理的方式、分配方式以及使用场景上有很大的区别。本文将详细介绍堆和栈的特点、区别以及各自的使用场景。php中文网给大家带来了相关的教程以及文章欢迎大家前来学习阅读。

572

2023.08.10

golang map内存释放
golang map内存释放

本专题整合了golang map内存相关教程,阅读专题下面的文章了解更多相关内容。

75

2025.09.05

golang map相关教程
golang map相关教程

本专题整合了golang map相关教程,阅读专题下面的文章了解更多详细内容。

36

2025.11.16

Java编译相关教程合集
Java编译相关教程合集

本专题整合了Java编译相关教程,阅读专题下面的文章了解更多详细内容。

9

2026.01.21

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
10分钟--Midjourney创作自己的漫画
10分钟--Midjourney创作自己的漫画

共1课时 | 0.1万人学习

Midjourney 关键词系列整合
Midjourney 关键词系列整合

共13课时 | 0.9万人学习

AI绘画教程
AI绘画教程

共2课时 | 0.2万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号