0

0

特斯拉Dojo超算架构细节首次公开!为自动驾驶「操碎了芯」

PHPz

PHPz

发布时间:2023-04-11 21:46:25

|

1634人浏览过

|

来源于51CTO.COM

转载

为了满足对人工智能和机器学习模型越来越大的需求, 特斯拉创建了自己的人工智能技术,来教特斯拉的汽车自动驾驶。

最近,特斯拉在Hot Chips 34会议上,披露了大量关于Dojo(道场)超级计算架构的细节。

本质上,Dojo是一个巨大的可组合的超级计算机,它由一个完全定制的架构构建,涵盖了计算、网络、输入/输出(I/O)芯片到指令集架构(ISA)、电源传输、包装和冷却。所有这些都是为了大规模地运行定制的、特定的机器学习训练算法。

Ganesh Venkataramanan是Tesla自动驾驶硬件高级总监,负责Dojo项目,以及AMD的CPU设计团队。Hot Chips 34会议上,他和众位芯片、系统和软件工程师首次公开了该机器的许多架构特性。

数据中心「三明治」

「 一般来说,我们制造芯片的过程,是把它们放在包装上,把包装放在印刷电路板上,然后进入系统。系统进入机架。」Venkataramanan说。

但是这个过程中存在一个问题:每次数据从芯片移动到封装上并离开封装时,都会产生延迟和带宽损失。

为了绕过这些限制,Venkataramanan和他的团队决定从头开始。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

图片

由此,Dojo的训练瓦片诞生了。

这是一个独立的计算集群,占地半立方英尺,在15千瓦的液冷封装中能够达到556TFLOPS的FP32性能。

每个瓦片都配备了11GB的SRAM,并在整个堆栈中使用定制的传输协议,通过9TB/s结构连接。

Venkataramanan说:「这块训练板代表了从计算机到存储器、到电源传输、到通信的无与伦比的集成度,不需要任何额外的开关。」

训练瓦片的核心是特斯拉的D1,这是一个500亿个晶体管芯片,基于台积电的7纳米工艺。特斯拉表示,每个D1能够在400W的TDP下实现22TFLOPS的FP32性能。

图片

特斯拉然后用25个D1,把它们分到已知的好模具上,然后用台积电的晶圆上系统技术把它们包装起来,以极低的延迟和极高的带宽实现大量的计算集成。

然而,晶片上的系统设计和垂直堆叠架构,给电力输送带来了挑战。

据Venkataramanan说,目前大多数加速器将电源直接放在硅片旁边。他解释说,这种方法虽然行之有效,但这就意味着加速器的很大一部分区域必须专门用于这些组件,这对Dojo来说是不切实际的。于是,特斯拉选择直接通过芯片底部直接提供电源。

此外,特斯拉还开发了Dojo接口处理器(DIP),它是主机CPU和训练处理器之间的桥梁。

每个DIP都有32GB的HBM,最多可以将五个这样的卡以900GB/s的速度连接到一个训练瓦片上,以达到4.5TB/s的总量,每个瓦片共有160GB的HBM。

图片

特斯拉的V1配置成对的这些瓦片——或150个D1模具——在阵列中支持四个主机CPU,每个主机CPU配备五个DIP卡,以实现声称的BF16或CFP8性能的exaflop。

图片

软件

这样一个专门的计算架构,就需要一个专门的软件栈。然而,Venkataramanan和他的团队认识到,可编程性将决定Dojo的成败。

「当我们设计这些系统时,软件同行的易编程性是最重要的。研究人员不会等待你的软件人员为适应我们想要运行的新算法而写一个手写的内核。」

为了做到这一点,特斯拉放弃了使用内核的想法,围绕编译器设计了Dojo的架构。

「我们的做法是使用PiTorch。我们创建了一个中间层,它帮助我们并行化,以扩展其下面的硬件。所有东西下面都是编译过的代码。」为了创建可适应任何未来工作负载的软件堆栈,这是唯一的方法。

尽管强调了软件的灵活性,Venkataramanan指出,目前在他们的实验室中运行的平台,暂时仅限于特斯拉使用。

Dojo架构一览

看完了以上这些,让我们深入了解一下Dojo的架构。

特斯拉拥有用于机器学习的百亿亿次人工智能级系统。特斯拉有足够的资金规模来雇佣员工,并专门为其应用构建芯片和系统,就像特斯拉的车载系统一样。

图片

特斯拉不仅在构建自己的AI芯片,还在构建超级计算机。

图片

分布式系统分析

Dojo的每个节点都有自己的CPU、内存和通信接口。

图片

Dojo节点

这是Dojo处理器的处理管线。

AI工具箱
AI工具箱

AI工具箱是一个全方位AI资源聚合平台

下载

图片

处理管道

每个节点有1.25MB的SRAM。在AI训练和推理芯片中,一种常见的技术是将内存与计算共置,以最大限度地减少数据传输,因为从功率和性能的角度来看,数据传输非常昂贵。

图片

节点内存

然后每个节点都连接到一个2D网格。

图片

网络接口

这是数据路径概述。

图片

数据路径

下面是一个例子,说明芯片可以做的列表解析。

图片

列表解析

这里有更多关于指令集的内容,属于特斯拉原创,而不是典型的Intel、Arm、NVIDIA或AMD CPU/GPU的指令集。

图片

指令集

在人工智能中,算术格式很重要,尤其是芯片支持哪些格式。利用DOJO,特斯拉就可以研究常用格式,例如FP32、FP16和BFP16。这些是常见的行业格式。

图片

算术格式

特斯拉也在研究可配置的FP8或CFP8。它有4/3和5/2的范围选项。这类似于 NVIDIA H100 Hopper配置的FP8。我们还看到Untether.AI Boqueria 1458 RISC-V核心AI加速器专注于不同的FP8类型。

图片

算术格式 2

Dojo还具有不同的CFP16格式,以实现更高的精度,并支持FP32、BFP16、CFP8和CFP16。

图片

算术格式 3

然后将这些核心集成到制造的模具中。特斯拉的D1芯片由台积电以7nm工艺制造。每个芯片有354个Dojo处理节点和440MB的SRAM。

图片

First Integration Box D1 模具

这些D1芯片被封装在一个道场训练瓦片上。D1芯片经过测试,然后被组装成一个5×5的瓦片。这些瓦片每个边缘有4.5TB/s的带宽。它们还具有每个模块15kW的功率传输包络,或者可以说,每个D1芯片去掉40个I/O裸片所使用的功率后,大约还有600W。通过对比可以看出,如果一家公司不想设计这种东西,为什么像Lightmatter Passage会更有吸引力。

图片

二次集成箱Dojo训练瓦片

Dojo的接口处理器位于2D网格的边缘。每个训练块有11GB的SRAM和160GB的共享DRAM。

图片

Dojo系统拓扑

以下是连接处理节点的2D网格的带宽数据。

图片

Dojo系统通信逻辑二维网格

每个DIP和主机系统提供32GB/s的链接。

图片

Dojo系统通信 PCIe链接DIP和主机

特斯拉还具有用于更长路线的Z平面链接。在接下来的演讲中,特斯拉谈到了系统级的创新。

图片

通信机制

这里是die和tiles的延迟边界,这就是为什么在Dojo中对它们进行不同处理的原因。需要Z平面链路的原因是,长路径很昂贵。

图片

Dojo系统通信机制

任何处理节点都可以跨系统访问数据。每个节点都可以将数据推送或拉取到SRAM或DRAM。

图片

Dojo系统批量通信

Dojo使用平面寻址方案进行通信。

图片

系统网络1

这些芯片可以在软件中绕过错误的处理节点。

图片

系统网络2

这意味着软件必须了解系统拓扑。

图片

系统网络3

Dojo不保证端到端的流量排序,因此需要在目的地对数据包进行计数。

图片

系统网络4

以下是数据包如何计入系统同步的一部分。

图片

系统同步

编译器需要定义一个带有节点的树

图片

系统同步2

特斯拉表示,一个exa-pod拥有超过100万个CPU(或计算节点)。这些都是大型系统。

图片

总结

特斯拉专门为大规模工作而建造了Dojo。通常,初创公司都希望为每个系统构建一个或几个芯片的AI芯片。显然,特斯拉专注于更大的规模。

在许多方面,特斯拉拥有一个巨大的人工智能训练场是合理的。更令人兴奋的是,它不仅使用商业上可用的系统,而且还在构建自己的芯片和系统。标量方面的一些ISA是借用RISC-V的,但矢量方面和很多架构特斯拉都是定制的,所以这需要大量的工作。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
chatgpt使用指南
chatgpt使用指南

本专题整合了chatgpt使用教程、新手使用说明等等相关内容,阅读专题下面的文章了解更多详细内容。

0

2026.03.16

chatgpt官网入口地址合集
chatgpt官网入口地址合集

本专题整合了chatgpt官网入口地址、使用教程等内容,阅读专题下面的文章了解更多详细内容。

0

2026.03.16

minimax入口地址汇总
minimax入口地址汇总

本专题整合了minimax相关入口合集,阅读专题下面的文章了解更多详细地址。

4

2026.03.16

C++多线程并发控制与线程安全设计实践
C++多线程并发控制与线程安全设计实践

本专题围绕 C++ 在高性能系统开发中的并发控制技术展开,系统讲解多线程编程模型与线程安全设计方法。内容包括互斥锁、读写锁、条件变量、原子操作以及线程池实现机制,同时结合实际案例分析并发竞争、死锁避免与性能优化策略。通过实践讲解,帮助开发者掌握构建稳定高效并发系统的关键技术。

7

2026.03.16

TypeScript类型系统进阶与大型前端项目实践
TypeScript类型系统进阶与大型前端项目实践

本专题围绕 TypeScript 在大型前端项目中的应用展开,深入讲解类型系统设计与工程化开发方法。内容包括泛型与高级类型、类型推断机制、声明文件编写、模块化结构设计以及代码规范管理。通过真实项目案例分析,帮助开发者构建类型安全、结构清晰、易维护的前端工程体系,提高团队协作效率与代码质量。

114

2026.03.13

Python异步编程与Asyncio高并发应用实践
Python异步编程与Asyncio高并发应用实践

本专题围绕 Python 异步编程模型展开,深入讲解 Asyncio 框架的核心原理与应用实践。内容包括事件循环机制、协程任务调度、异步 IO 处理以及并发任务管理策略。通过构建高并发网络请求与异步数据处理案例,帮助开发者掌握 Python 在高并发场景中的高效开发方法,并提升系统资源利用率与整体运行性能。

141

2026.03.12

C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

396

2026.03.11

Go高并发任务调度与Goroutine池化实践
Go高并发任务调度与Goroutine池化实践

本专题围绕 Go 语言在高并发任务处理场景中的实践展开,系统讲解 Goroutine 调度模型、Channel 通信机制以及并发控制策略。内容包括任务队列设计、Goroutine 池化管理、资源限制控制以及并发任务的性能优化方法。通过实际案例演示,帮助开发者构建稳定高效的 Go 并发任务处理系统,提高系统在高负载环境下的处理能力与稳定性。

65

2026.03.10

Kotlin Android模块化架构与组件化开发实践
Kotlin Android模块化架构与组件化开发实践

本专题围绕 Kotlin 在 Android 应用开发中的架构实践展开,重点讲解模块化设计与组件化开发的实现思路。内容包括项目模块拆分策略、公共组件封装、依赖管理优化、路由通信机制以及大型项目的工程化管理方法。通过真实项目案例分析,帮助开发者构建结构清晰、易扩展且维护成本低的 Android 应用架构体系,提升团队协作效率与项目迭代速度。

111

2026.03.09

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号