
本文详解在 Apple Silicon Mac(如 M1/M2 MacBook Air/Pro)上启用 Metal Performance Shaders(MPS)加速 YOLOv8 训练的完整方案,解决因误调 CUDA 接口导致的 AssertionError: Torch not compiled with CUDA enabled 报错,并提供可直接运行的配置代码与关键注意事项。
本文详解在 apple silicon mac(如 m1/m2 macbook air/pro)上启用 metal performance shaders(mps)加速 yolov8 训练的完整方案,解决因误调 cuda 接口导致的 `assertionerror: torch not compiled with cuda enabled` 报错,并提供可直接运行的配置代码与关键注意事项。
YOLOv8 原生支持 Apple 的 Metal Performance Shaders(MPS)后端,可在搭载 M1/M2/M3 芯片的 macOS 设备上显著提升训练速度(相比纯 CPU 可提速 3–5 倍)。但默认情况下,Ultralytics 的自动批处理(autobatch)和部分设备检测逻辑仍会尝试调用 torch.cuda.* 接口——而 macOS 版 PyTorch 完全不包含 CUDA 支持(无 NVIDIA GPU),导致 torch.cuda.get_device_properties() 等函数直接抛出 AssertionError,即使你已显式指定 device='mps'。
根本原因在于:Ultralytics v8.0.200+ 虽已适配 MPS,但其 check_train_batch_size() 函数内部未区分 mps 与 cuda 设备,仍强制执行 CUDA 相关检查。因此,不能依赖自动 batch size 推导,必须手动禁用该机制并显式设置合理批大小。
✅ 正确做法如下:
1. 确保环境满足前提条件
- macOS 12.3 或更高版本(MPS 最低要求)
- Python ≥ 3.9(推荐 3.11)
- PyTorch ≥ 2.1.0(需带 MPS 支持):
pip uninstall torch torchvision torchaudio pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/macos
- Ultralytics ≥ 8.1.0(强烈建议升级至最新稳定版):
pip install --upgrade ultralytics
2. 关键修复:禁用自动 batch size 检测 + 显式指定 device
将原始代码:
results = model.train(
data=data,
epochs=epochs,
batch=batch_size, # ← 若设为 -1 或未指定,会触发 autobatch → 报错!
imgsz=img_size,
project=project_name,
name=model_name,
device=torch.device('mps') # ← 此处合法,但后续 autobatch 会崩溃
)改为显式关闭自动批处理,并固定 batch 值(推荐 8–16,视内存而定):
from ultralytics import YOLO
import torch
# 确认 MPS 可用
if torch.backends.mps.is_available():
device = 'mps'
print("✅ MPS backend is available.")
else:
device = 'cpu'
print("⚠️ MPS not available, falling back to CPU.")
model = YOLO('yolov8s.pt')
# ✅ 关键:显式设置 batch(不可为 -1 或 None),并关闭 auto-batch 干扰
results = model.train(
data=data,
epochs=epochs,
batch=8, # ← 必须为正整数!M2 Air 建议 4–8;M2 Pro/Max 可试 12–16
imgsz=img_size,
project=project_name,
name=model_name,
device=device, # ← 字符串 'mps' 更稳妥,等价于 torch.device('mps')
amp=False, # ⚠️ MPS 当前不支持 AMP(自动混合精度),必须设为 False
workers=2, # macOS 上 dataloader workers 过高易卡死,建议 0–2
cache='ram' # 可选:小数据集启用内存缓存加速加载
)3. 补充注意事项
- amp=False 是硬性要求:截至 PyTorch 2.3 和 Ultralytics 8.2.x,MPS 后端尚未实现 torch.cuda.amp 兼容的混合精度训练,启用 amp=True 将导致 RuntimeError。
- *避免 `torch.cuda.任何调用**:自定义回调、日志或数据增强中切勿出现torch.cuda.synchronize()、.cuda()等语句;统一使用.to(device)`。
- 内存监控:MPS 内存不透明,若训练中出现 MemoryError 或内核崩溃,请立即降低 batch 或 imgsz(如从 640→320)。
- 验证 MPS 是否生效:训练日志首行应显示 device=mps,且 GPU 利用率可在「活动监视器」→「GPU History」中观察到明显占用。
总结
在 macOS Apple Silicon 上训练 YOLOv8,核心原则是:绕过所有 CUDA 检查路径,显式控制设备、批大小与精度模式。只要禁用 autobatch(即不传 batch=-1)、关闭 amp、使用 device='mps' 字符串,并确保 PyTorch 和 Ultralytics 版本达标,即可稳定获得 3×+ 的训练加速。这是目前在无独立 GPU 的 Mac 上进行高效目标检测训练的最优实践。










