苹果掀桌,扔掉AlphaFold核心模块,开启蛋白折叠「生成式AI」时代

新智元·2025年09月28日 07:56
首个基于Transformer模块的蛋白折叠模型。

蛋白质折叠,一直是计算生物学中的一个核心难题,并对药物研发等领域产生着深远影响。

若把蛋白质折叠类比为视觉领域的生成模型,氨基酸序列相当于「提示词」,模型输出则是原子的三维坐标。

受此思维启发,研究人员构建了一个基于标准Transformer模块与自适应层的通用且强大的架构——SimpleFold。

论文地址:https://arxiv.org/abs/2509.18480

SimpleFold和AlphaFold2等经典的蛋白质折叠模型有哪些不同?

AlphaFold2、RoseTTAFold2通过融合复杂且高度专业化的架构,如三角更新、成对表示、多序列比对(MSA)。

这些设计往往是将我们对结构生成机制的已有理解「硬编码」到模型中,而不是让模型自己从数据中学习生成方式。

SimpleFold则提出了一种全新思路:

没有三角更新、成对表示,也不需要MSA,而是完全基于通用Transformer和流匹配(flow-matching),能够直接将蛋白质序列映射为完整的三维原子结构(见图1)。

SimpleFold

首个基于Transformer模块的蛋白折叠模型

流匹配把生成视作一段随时间推进的旅程,用常微分方程(ODE)做轨迹积分,就好像冲洗照片一样,噪声也一点点被「冲洗」成清晰的结构。

SimpleFold在蛋白质折叠上也复现这段旅程:

输入是氨基酸序列这串「提示词」,输出是全原子三维「照片」,很像视觉里的「文生图」或「文生三维」任务。

自AlphaFold2以来,诸如三角更新、单体与对表示交互等组件被广泛应用于蛋白质折叠模型,但这些设计是否必要并未形成定论。

SimpleFold在设计上进行了大胆创新,仅采用通用Transformer模块构建架构(对比见图5)。

SimpleFold架构由三部分组成:轻量原子编码器、重型残基主干、轻量原子解码器(见图2)。

这套「细—粗—细」的层级套路,先看微观、再抓全局、再补细节,在速度与精度之间找到了良好的平衡点。

与以往方法不同,SimpleFold不使用对表示,也不依赖MSA或PLM的注意力初始化。

与依赖等变架构的工作相比,SimpleFold完全基于非等变的Transformer构建。

为应对蛋白质结构中的旋转对称性,研究人员在训练时引入SO(3)数据增强,即随机旋转目标结构,并依赖模型学习该对称性。

实验评估

为了研究SimpleFold框架在蛋白质折叠任务中的扩展能力,研究人员训练了一系列不同规模的SimpleFold模型(包括100M、360M、700M、1.1B、1.6B和3B)。

模型做大不只是加参数,随着模型规模的增加,研究人员在原子编码器、解码器和残基主干网络也进行了全链路升级(详见表5)。

在训练过程中,研究人员借鉴AlphaFold2的策略,同一蛋白在每张GPU上复制Bc份,各自抽不同时间步t,再从Bp个蛋白累积梯度(具体设置见表6)。

实验表明,这种策略相比于直接随机选择蛋白组成一个batch,能带来更稳定的梯度和更优的模型性能。

研究人员在CAMEO22和CASP14这两个广泛使用的蛋白质结构预测基准上评估了SimpleFold的性能。

这两个基准测试在泛化能力、鲁棒性以及原子级准确性方面要求较高。

表1总结了CASP14和CAMEO22上的评估结果。

研究人员根据蛋白序列信息提取方式将模型分为两类:基于MSA检索的方法(如RoseTTAFold、RoseTTAFold2和AlphaFold2)和基于蛋白语言模型(PLM)的方法(如ESMFold和OmegaFold)。

此外,还根据训练目标是否为生成式目标(如扩散、流匹配或自回归)对基线模型做了标注,以区分它们是否直接进行结构回归。

有意思的是,从AlphaFold2、ESMFold微调成流匹配的AlphaFlow、ESMFlow,整体指标反而不如各自原版回归模型。

研究人员认为,这是因为蛋白质折叠基准如CAMEO22和CASP14通常仅提供一个「真实」结构目标,这对于进行确定性逐点预测的回归模型更为有利。

尽管架构简洁,但SimpleFold的性能依然非常出色。

在两个基准测试中,SimpleFold一贯优于同为流匹配方法、基于ESM嵌入构建的ESMFlow。

在CAMEO22上,SimpleFold的表现与目前最先进的模型(如ESMFold、RoseTTAFold2和AlphaFold2)相当。

更为重要的是,不使用三角注意力和MSA,SimpleFold在多数指标也能跑到RF2/AF2性能的95%以上。

在更具挑战性的CASP14中,SimpleFold甚至超越了ESMFold。

SimpleFold跨基准的掉分更小,说明它不靠MSA也能稳健泛化,能够应对更复杂的结构预测任务。

研究人员也报告了不同规模的SimpleFold模型的表现。

即便是最小的SimpleFold-100M,在CAMEO22上也能实现ESMFold性能的90%+以上,进一步说明基于通用结构模块构建蛋白质折叠模型是可行的。

随着模型规模的提升,SimpleFold的性能在各项指标上持续提升,这表明通用可扩展的架构设计在折叠任务中具有显著优势。

尤其是在更具挑战性的CASP14上,模型扩大带来的性能增益更为明显。

图3(a)展示了一个包含pLDDT预测值的结构示例,其中红色和橙色表示预测置信度低,蓝色表示预测置信度高。

可以看到,SimpleFold对大多数次级结构的预测较为自信,而在柔性环区域表现出一定不确定性。

图3(b)和(c)展示了pLDDT与实际LDDT-Cα的对比分析。

SimpleFold的结构集合生成能力

采用生成式目标的好处在于:SimpleFold可直接建模结构分布,而非仅输出单一「定稿」。

因此,同一条氨基酸序列,它既能生成一个确定性的结构,还能生成多个不同构象组成的结构集合。

为了验证SimpleFold这一能力,研究人员在ATLAS数据集上进行测试。

该数据集用于评估分子动力学(MD)结构集合的生成,包含了1390个蛋白质的全原子MD模拟结构。

表2展示了SimpleFold与多个基线模型在ATLAS上的对比结果(不同规模的SimpleFold模型见表9)。

所用指标全面评估了生成结构集合的质量,包括柔性预测、分布准确性以及集合可观测性。

如表2所示,SimpleFold在多个评估指标上持续优于同样依赖ESM表征的ESMFlow-MD。

同时,在暴露残基与互信息矩阵等关键可观测性上,SimpleFold也胜过AlphaFlow-MD,有助于挖掘药物发现里常见的「隐性口袋」。

研究人员还评估了SimpleFold对天然具有多种构象状态蛋白质的结构建模能力。

如表3所示,在Apo/holo数据集上,SimpleFold取得了当前最优表现,显著超越了AlphaFlow等强大的MSA方法。

在Fold-switch数据集上,SimpleFold的表现与ESMFlow相当甚至更优。

整体来看,SimpleFold的性能随着模型规模的增加而提升,进一步展示了该框架在蛋白质结构集合生成方面的巨大潜力。

在蛋白质折叠中的扩展效应

为了研究SimpleFold在蛋白质折叠任务中扩展效应,研究人员训练了从1亿参数到30亿参数不等的多个模型版本。

所有模型均使用完整预训练数据,包括PDB、AFDB中的SwissProt以及筛选后的AFESM。

图4(a)-(d)展示了模型规模对折叠任务的性能影响(另见图1(d))。

结果表明,规模更大的模型在训练资源更充足的情况下(如更多FLOPs和迭代次数)表现更佳。

这证明SimpleFold的可扩展性过关,也为通用生成模型在生物领域大规模落地指出了可行路径。

研究人员还研究了训练数据规模的扩展对模型表现的影响:使用SimpleFold-700M模型,在不同规模的数据集上进行训练。

如图4(e)-(f)所示,随着训练数据中唯一结构数量的增加,在40万次迭代后,模型性能持续提升。

这些结果证明:一个简洁、可扩展的折叠模型能够从日益丰富的实验与模型数据中持续获益。

作者简介

Yuyang Wang

Yuyang Wang现为苹果机器学习研究(MLR)的一名人工智能研究员,目前致力于研究构建通用的扩散模型。

Yuyang Wang获卡内基梅隆大学(CMU)博士学位,长期从事生成式模型与科学计算的交叉研究。

其兴趣集中在flow-matching/扩散等通用生成模型及其在图像、3D、图与分子体系中的表示与推断,并探索以通用Transformer解决蛋白质结构建模等问题。

除论文外,Yuyang Wang重视开源与可复现,经常与跨学科团队协作,推进药物发现与蛋白设计等应用。

参考资料:

https://arxiv.org/abs/2509.18480

本文来自微信公众号“新智元”,作者:新智元,编辑:元宇,36氪经授权发布。

+1
36

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

特朗普的孩子们靠父亲的总统身份赚了多少钱

3小时前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业