AI生成苹果Metal内核,PyTorch推理速度提升87%

量子位·2025年09月04日 17:48
在215个PyTorch模块上平均加速1.87倍

AI自动生成的苹果芯片Metal内核,比官方的还要好?

Gimlet Labs的最新研究显示,在苹果设备上,AI不仅能自动生成Metal内核,还较基线内核实现了87%的PyTorch推理速度提升。

更惊人的是,AI生成的Metal内核还在测试的215个PyTorch模块上实现了平均1.87倍的加速,其中一些工作负载甚至比基准快了数百倍

真就AI Make苹果AI Great Again?

用AI为苹果设备生成内核

先说结论:通过AI自动实现内核优化,可以在无需修改用户代码、无需新框架或移植的情况下,显著提升模型性能。

为了证明这一点,研究人员选取了来自Anthropic、DeepSeek和OpenAI的8个顶尖模型,让它们为苹果设备生成优化的GPU内核,以加速PyTorch推理速度。

至于为什么是苹果?别问——问就全球最大硬件供应商(doge)

接下来,让我们看看研究人员是怎么做的:

实验设置

首先,在模型选择方面,参与测试的模型包括:claude-sonnet-4、claude-opus-4;gpt-4o、gpt-4.1、gpt-5、o3;deepseek-v3、deepseek-r1。

其次,在测试输入方面,研究使用了KernelBench数据集中定义的PyTorch模块,并选取了其中215个模块进行测试。

这些被选取的模块被划分为三个等级,分别是第一级的简单操作(如矩阵乘法、卷积);第二级是由第一级操作组成的多操作序列;第三级是完整的模型架构(如 AlexNet、VGG)。

再次,在评估指标方面,研究人员主要关注两个指标:一是AI生成内核的正确性,二是其相较于基准PyTorch的性能提升。

最后,研究使用的苹果硬件为Mac Studio (Apple M4 Max chip),Baseline为PyTorch eager mode(划重点,一会要考)

实验测试

在上述准备完毕后,研究团队展开了测试。

测试流程如下:

接收提示(prompt)和PyTorch代码;

生成 Metal 内核;

评估其是否在正确性(correctness^4)上与基准PyTorch一致;

如果编译失败或不正确,则将错误信息回传给智能体重试,最多允许重试5次。

如上所说,研究者首先关注AI生成内核的正确性。

实验表明,正确性会随着尝试次数的增加而提升。以o3为例:第一次尝试就有约60%的概率得到可用实现,到第5次尝试时可用实现比例达到94%

此外,研究还发现推理模型非常擅长跨层级生成正确的内核,尽管非推理模型有时也能做到这一点。

那么,AI生成的内核表现如何呢?

实验结果相当惊艳,几乎每个模型都生成了一些比基准更快的内核。

例如,GPT-5在一个Mamba 25状态空间模型上实现了4.65倍的加速,其主要通过内核融合(kernel fusion) 来减少内核调用的开销,并改善内存访问模式。

在一些案例中,o3甚至将延迟提升了超过9000倍!

总体而言,GPT-5平均可以带来约20%的加速,其他模型则落后。

不过,GPT并非是门门最优,研究人员发现GPT-5在34%的问题上生成了最优解

但在另外30%的问题上,其他模型生成的解比GPT-5更优!

这就意味着没有单一模型能在所有问题上都生成最优内核。

因此,如果把多个模型组合起来,就能更大概率生成最优内核。

于是乎,研究人员又展开了智能体群体实验(Agentic Swarm)。

智能体群体实验

果不其然,相较于单个模型,智能体群体策略实现了更高的性能提升。

与GPT-5相比,智能体群体在各层级平均加速31%,在Level 2问题上加速42%

在几乎没有上下文信息的情况下(仅有输入问题和提示),智能体群体就已经表现得相当不错。

接下来,研究人员尝试为智能体提供更多上下文,以获取更快的内核。

这里主要包含两个额外的信息来源:

CUDA实现(由于 Nvidia GPU的普及,通常可以获得优化过的CUDA参考实现);

M4上gputrace 的性能分析信息。(包含Apple Script捕获的gputrace摘要、内存和时间线视图)

在具体的实施步骤中,研究者先将截图处理任务分配给一个子智能体(subagent),让它为主模型提供性能优化提示。

在收到提示后,主智能体先进行一次初步实现,然后对其进行性能分析和计时。

随后,再将截图传给子智能体以生成性能优化提示。

实验表明,在上下文配置方面也没有所谓的“单一最佳”方案。

不过,在具体的性能加速方面,加入这些额外上下文实现了平均1.87倍的加速,相较于普通智能体仅实现的1.31倍的平均加速,额外上下文将提升幅度提高了三倍!

有提升,但看跟谁比

为了更深入地讨论,我们有必要先回顾一些背景知识。

在PyTorch中,我们通常会调用如Sequential、ReLU这样的函数。

在具体的执行中,PyTorch会先将函数拆解为张量运算(矩阵乘法、加法等),再交给GPU执行。

这时就需要GPU内核(kernel)负责把这些数学操作转成GPU可理解的低级并行指令。

因此,在某种程度上,我们可以说GPU内核就像C编译器一样,其性能对于运算效率至关重要。

而上面这篇工作所做的,就是让原本必须由工程师手写的内核优化交给AI自动完成,并测试它的性能。

不过,问题就来了。

众所周知,苹果硬件并不像英伟达的CUDA一样,对PyTorch有很好的优化。

因此,这篇研究直接拿MPS后端原生实现和AI生成的内核对比是有失公允的。

不少眼尖的网友也是发现并指出了这一点:文章里所用的baseline是eager mode,这通常只用于训练调试或指标计算,不会被真正部署到设备上。

在真实部署中,一般会先把模型导出为ONNX,再编译成设备原生格式(Metal、CUDA 或 ROCm 等),这样效率会比直接用PyTorch eager mode高很多。

所以,无论内核是工程师手写,还是AI自动生成,经过优化的GPU内核都会比未优化的PyTorch推理快得多。

因此,拿调试过的内核和eager比,多少有点奇怪。

对此,研究人员回应道:

这篇工作不是为了展示部署环境的最终性能极限,而是展示AI自动生成内核的可行性。

研究的目的是在内核工程方面获得人类专家一定程度的效益,而无需开发人员的额外投入,希望通过A将部分流程自动化。

所以,重点不在于性能提升,而在原型验证。

对此,你怎么看?

参考链接

[1]https://gimletlabs.ai/blog/ai-generated-metal-kernels#user-content-fn-4

[2]https://news.ycombinator.com/item?id=45118111

[3]https://en.wikipedia.org/wiki/Compute_kernel

[4]https://github.com/ScalingIntelligence/KernelBench/

本文来自微信公众号“量子位”,作者:henry,36氪经授权发布。

+1
2

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

随着苹果秋季新品发布会的临近,下游产业链已进入生产冲刺阶段。

5小时前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业