0

0

OpenAI编程语言加速Bert推理12倍,引擎备受关注

WBOY

WBOY

发布时间:2023-04-23 15:19:07

|

1556人浏览过

|

来源于51CTO.COM

转载

一行代码的威力到底有多大?今天我们要介绍的这个 Kernl 库,用户只需一行代码,在 GPU 上就能以快几倍的速度运行 Pytorch transformer 模型,从而极大的加快了模型的推理速度。​

具体而言,有了 Kernl 的加持,Bert 的推理速度比 Hugging Face 基线快了 12 倍。这一成果主要得益于 Kernl 用新的 OpenAI 编程语言 Triton 和 TorchDynamo 编写了定制的 GPU 内核。项目作者来自 Lefebvre Sarrut。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

一行代码12倍加速Bert推理,OpenAI编程语言加持的引擎火了

GitHub 地址:https://github.com/ELS-RD/kernl/

以下是 Kernl 与其他推理引擎的比较,横坐标中括号里的数字分别表示 batch size、序列长度,纵坐标为推理加速情况。

AI工具箱
AI工具箱

AI工具箱是一个全方位AI资源聚合平台

下载

一行代码12倍加速Bert推理,OpenAI编程语言加持的引擎火了

基准测试在 3090 RTX GPU 运行,以及 12 核 Intel CPU。

由上述结果可得,在长序列输入这一块,Kernl 可以说是最快的推理引擎(上图中的右半部分),在短输入序列上接近英伟达的 TensorRT(上图中的左半部分)。除此以外,Kernl 内核代码非常简短,易于理解和修改。该项目甚至添加了 Triton 调试器和工具 (基于 Fx) 来简化内核替换,因此不需要修改 PyTorch 模型源代码。​

项目作者 Michaël Benesty 对这一研究进行了总结,他们发布的 Kernl 是一个用于加速 transformer 推理的库,速度非常快,有时会到达 SOTA 性能,可破解以匹配大多数 transformer 架构。

他们还在 T5 上做了测试,速度提高 6 倍,Benesty 表示这仅仅是个开始。

为什么创建 Kernl?​

在 Lefebvre Sarrut,项目作者在生产中运行几个 transformers 模型,其中一些对延迟敏感,主要是搜索和 recsys。他们还在使用 OnnxRuntime 和 TensorRT,甚至创建了 transformer-deploy OSS 库来与社区分享知识。​

最近,作者在测试生成语言,并努力加速它们。然而事实证明,使用传统工具做到这些非常困难。在他们看来,Onnx 是另一种有趣的格式,它是一种针对机器学习所设计的开放式文件格式,用于存储训练好的模型,具有广泛的硬件支持。

但是,当他们处理新的 LLM 架构时,Onnx 生态系统(主要是推理引擎)存在以下几种限制:​

  • 没有控制流的模型导出到 Onnx 很简单,这是因为可以依赖跟踪。但是动态行为更难获得;
  • 与 PyTorch 不同,ONNX Runtime/TensorRT 还没有原生支持实现张量并行的多 GPU 任务;
  • TensorRT 无法为具有相同配置文件的 transformer 模型管理 2 个动态轴。但由于通常希望能够提供不同长度的输入,因此需要每个批大小构建 1 个模型;
  • 非常大的模型很常见,但 Onnx(作为 protobuff 文件)在文件大小方面有一些限制,需要将权重存储在模型之外来解决问题。​

一个非常烦人的事实是新模型永远不会被加速,你需要等着其他人来为此编写自定义 CUDA 内核。现有解决方案并不是不好,OnnxRuntime 的一大优点是它的多硬件支持,TensorRT 则以非常快速著称。

所以,项目作者想要在 Python/PyTorch 上有像 TensorRT 一样快的优化器,这也是他们创建 Kernl 的原因。

如何做到?​

内存带宽通常是深度学习的瓶颈,为了加速推理,减少内存访问往往是一个很好的策略。在短输入序列上,瓶颈通常与 CPU 开销有关,它必须被消除。项目作者主要利用了以下 3 项技术:​

首先是 OpenAI Triton,它是一种编写 CUDA 等 GPU 内核的语言,不要将它与 Nvidia Triton 推理服务器混淆,它的效率更高。几个操作的融合实现了改进,使得他们不在 GPU 内存中保留中间结果的情况下链接计算。作者使用它重写注意力(由 Flash Attention 替换)、线性层和激活以及 Layernorm/Rmsnorm。​

其次是 CUDA 图。在预热(warmup)步骤中,它将保存每个启动的内核及它们的参数。然后,项目作者重建了整个推理过程。​

最后是 TorchDynamo,这个由 Meta 提出的原型机帮助项目作者应对动态行为。在预热步骤中,它会跟踪模型并提供一个 Fx 图(静态计算图)。他们使用自己的内核替换了 Fx 图的一些操作,并在 Python 中重新编译。

未来,项目路线图将涵盖更快的预热、ragged 推理(padding 中没有损失计算)、训练支持(长序列支持)、多 GPU 支持(多并行化模式)、量化(PTQ)、新 batch 的 Cutlass 内核测试以及提升硬件支持等。

更多详细内容请参阅原项目。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
chatgpt使用指南
chatgpt使用指南

本专题整合了chatgpt使用教程、新手使用说明等等相关内容,阅读专题下面的文章了解更多详细内容。

0

2026.03.16

chatgpt官网入口地址合集
chatgpt官网入口地址合集

本专题整合了chatgpt官网入口地址、使用教程等内容,阅读专题下面的文章了解更多详细内容。

0

2026.03.16

minimax入口地址汇总
minimax入口地址汇总

本专题整合了minimax相关入口合集,阅读专题下面的文章了解更多详细地址。

4

2026.03.16

C++多线程并发控制与线程安全设计实践
C++多线程并发控制与线程安全设计实践

本专题围绕 C++ 在高性能系统开发中的并发控制技术展开,系统讲解多线程编程模型与线程安全设计方法。内容包括互斥锁、读写锁、条件变量、原子操作以及线程池实现机制,同时结合实际案例分析并发竞争、死锁避免与性能优化策略。通过实践讲解,帮助开发者掌握构建稳定高效并发系统的关键技术。

7

2026.03.16

TypeScript类型系统进阶与大型前端项目实践
TypeScript类型系统进阶与大型前端项目实践

本专题围绕 TypeScript 在大型前端项目中的应用展开,深入讲解类型系统设计与工程化开发方法。内容包括泛型与高级类型、类型推断机制、声明文件编写、模块化结构设计以及代码规范管理。通过真实项目案例分析,帮助开发者构建类型安全、结构清晰、易维护的前端工程体系,提高团队协作效率与代码质量。

114

2026.03.13

Python异步编程与Asyncio高并发应用实践
Python异步编程与Asyncio高并发应用实践

本专题围绕 Python 异步编程模型展开,深入讲解 Asyncio 框架的核心原理与应用实践。内容包括事件循环机制、协程任务调度、异步 IO 处理以及并发任务管理策略。通过构建高并发网络请求与异步数据处理案例,帮助开发者掌握 Python 在高并发场景中的高效开发方法,并提升系统资源利用率与整体运行性能。

141

2026.03.12

C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

396

2026.03.11

Go高并发任务调度与Goroutine池化实践
Go高并发任务调度与Goroutine池化实践

本专题围绕 Go 语言在高并发任务处理场景中的实践展开,系统讲解 Goroutine 调度模型、Channel 通信机制以及并发控制策略。内容包括任务队列设计、Goroutine 池化管理、资源限制控制以及并发任务的性能优化方法。通过实际案例演示,帮助开发者构建稳定高效的 Go 并发任务处理系统,提高系统在高负载环境下的处理能力与稳定性。

65

2026.03.10

Kotlin Android模块化架构与组件化开发实践
Kotlin Android模块化架构与组件化开发实践

本专题围绕 Kotlin 在 Android 应用开发中的架构实践展开,重点讲解模块化设计与组件化开发的实现思路。内容包括项目模块拆分策略、公共组件封装、依赖管理优化、路由通信机制以及大型项目的工程化管理方法。通过真实项目案例分析,帮助开发者构建结构清晰、易扩展且维护成本低的 Android 应用架构体系,提升团队协作效率与项目迭代速度。

111

2026.03.09

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
10分钟--Midjourney创作自己的漫画
10分钟--Midjourney创作自己的漫画

共1课时 | 0.1万人学习

Midjourney 关键词系列整合
Midjourney 关键词系列整合

共13课时 | 1.0万人学习

AI绘画教程
AI绘画教程

共2课时 | 0.2万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号