36氪首发 | “华为天才少年”创业连融超4亿元,做新一代推理芯片重构显存成本

乔钰杰·2026年04月17日 11:33
使用非3D DRAM架构进行介质替换,显存成本可降低1到2个数量级。

作者 | 乔钰杰

编辑 | 袁斯来

硬氪获悉,国内全自研GPGPU创新企业「北京行云集成电路有限公司」(以下简称“行云”)宣布连续完成Pre-A及Pre-A+多轮融资,融资金额超4亿元人民币。五源资本、赛富投资基金、春华资本联合领投,以及北京、江苏等地方国资、佰维存储(688525)、金沙江联合带动知名GPU企业创始人家办、创维资本等产业资本跟投。云岫资本连续多轮服务并担任下一轮独家融资财务顾问。

北京行云集成电路有限公司成立于2023年8月,专注针对大模型的新一代推理芯片,致力于使用非3D DRAM架构打造超大显存规格、CUDA兼容的全自研GPGPU产品,推动AI大模型推理的普惠化。

行云创始人季宇博士,清华大学计算机系博士,“华为天才少年”计划的一员,曾在华为海思深度参与昇腾AI芯片的编译器与架构研发。CTO余洪敏博士,中科院半导体所博士,曾主导百度昆仑芯、海思昇腾等多款芯片的研发与量产,拥有十余款芯片成功流片经验。

当前,在大模型架构持续演进的背景下,算力系统的瓶颈正在发生结构性变化。

季宇在接受硬氪采访时表示,当前算法侧的演进正在重塑硬件设计逻辑。以MoE(Mixture of Experts)为代表的稀疏模型,在计算效率上更具优势,但需要预先加载更多专家参数,使得整体对内存容量的需求显著高于传统Transformer稠密模型。

大模型(千亿/万亿参数)的显存需求已从GB级跃升至TB级,这一过程中,系统成本结构也随之重构——按GB计价的显存成本,正逐步超过算力芯片本身,成为主导项。因此,“降本的关键已经不在算力,而在显存”季宇称。

基于这一判断,行云选择了一条与主流路径不同的技术路线:放弃成本高昂的HBM(高带宽内存),转而采用LPDDR乃至NAND(SSD颗粒)等更低成本的存储介质作为显存介质。通过介质替换,使显存成本降低1到2个数量级。

但低成本介质也意味着单颗粒带宽较低。为弥补这一短板,行云在架构上采用多颗粒、多通道并行的设计,通过规模化堆叠将整体带宽提升至TB级别,以满足大模型推理对数据吞吐的需求。

季宇表示,随着稀疏化和MoE架构的发展,模型对带宽的绝对需求正在下降,系统设计不再需要一味追求极致带宽,而是可以通过软硬件协同,实现成本与效率之间的平衡。

这种思路也体现在行云的整体技术策略中。季宇强调,公司真正的稀缺性并不在单一芯片指标,而在于系统级的设计能力。通过诸如Prefill/Decode分离(PD分离)、KV Cache稀疏化等工程手段,行云能够更灵活地适配AI应用形态的快速变化,从早期的Chatbot到当前逐步兴起的Agent场景,降低因芯片研发周期较长所带来的技术滞后风险。

产品验证层面,行云此前推出的“褐蚁一体机”,已尝试用CPU与通用内存构建低成本推理方案,验证稀疏模型在非高端硬件上的可行性。目前,该方案已在DeepSeek的本地化部署场景中落地。

(图源/企业)

接下来,公司将把重心转向自研芯片的推进。季宇表示,公司今年的核心目标是完成芯片流片,并尽快推向市场,以芯片产品作为商业化的主要抓手。

当下,Open Claw的现象级传播也揭示了市场对消费级硬件承载高质量AI的巨大需求。季宇表示,行云希望通过其芯片产品,将低成本、高质量的万亿级模型算力真正落地到如龙虾机等端侧设备,突破当前端侧仅能运行100B小模型的局限,为消费电子市场打开新的想象空间。

CTO余洪敏表示,行云的设计优先级已从追求单芯片极致性能,转变为从板级系统角度追求可扩展性与供应链稳定性。通过分布式设计和采用成熟工艺与低成本存储,在系统层面实现成本最优与性能体验一致,这是公司实现算力普惠的重要基础。

 

投资方观点

峰瑞资本副总裁李罡表示:作为天使轮投资人,行云团队从23年创业开始,对AI芯片(特别是大模型环境下的AI芯片)有着极为前瞻的视角和思路。在近三年的模型和应用的快速变化中,我们看到行云针对下一代通用大模型的芯片方案和前瞻的设计思想,不断得到验证,始终领先时代半步。

五源资本表示:行云是AI芯片领域少有的‘第一性原理’思考者,季宇博士24年就前瞻性地洞察到MoE稀疏架构下硬件瓶颈从算力向显存迁移的结构性转变——放弃HBM、以LPDDR乃至NAND重构显存成本,不是渐进优化,而是通过系统级的软硬件协同设计能力推动行业范式创新。2026年以来随着AI模型coding和agent能力持续增强,AI推理需求爆发,OpenClaw等Agent的现象级破圈,正在将推理算力需求从云端拉向多端,从程序员推向大众,高效低成本的推理能力成为行业刚需。伴随未来推理需求的指数级增长,行云的技术路径将成为推动算力普惠的重要基础设施。

赛富投资基金负责科技赛道的管理合伙人蒋驰华表示:在AI大模型向万亿参数演进的过程中,降本的关键已经不在算力,而在显存和系统的架构,特别是在国产算力受限的前提下。季宇和行云团队展现出了罕见的系统级工程视野,他们跳出了盲目堆砌HBM的行业定式,通过LPDDR/NAND等介质替换与并行架构设计,将显存和系统成本打下来一到两个数量级,进而实现单Token成本极值,符合行业演进的方向。我们始终聚焦AI与具身智能领域的底层颠覆者。行云兼具前瞻的架构创新与扎实的落地能力,赛富很荣幸能在这一轮重仓支持。我们期待行云的新一代推理芯片彻底重构算力成本模型,真正实现大模型推理在云端与端侧的全面普惠。

春华资本表示:在国产算力生态加速构建的大背景下。行云敏锐地将设计重心锚定在显存成本重构上,以LPDDR与NAND替代HBM、通过多通道并行架构弥补单颗粒带宽不足,本质上是在重新定义推理芯片的成本架构。季宇博士对AI芯片架构的演进方向有着超越行业惯性的深度思考,他对‘降本关键在显存而非算力’的判断,始终领先行业共识半步,且每一步都在被市场持续验证;余洪敏博士作为从海思昇腾到百度昆仑芯一路走来的芯片老兵,对芯片从设计到量产的每一个环节都有实战积累。这种‘敢想’与‘能做’的结合,让行云具备了从架构创新到产品交付的完整闭环能力。我们期待行云的首颗自研芯片顺利流片,开启AI推理算力的新一轮成本革命。

佰维存储科技股份有限公司副总经理王灿:在大模型从通用AI向Agent形态演进的发展阶段,季宇博士展现了极具前瞻性的系统级洞察。他精准地识别出:大模型推理的结构性瓶颈已不再仅仅是算力本身,而是制约规模化落地的更低成本的存储。行云的核心逻辑非常清晰——通过介质替换与架构创新,以低成本的LPDDR乃至NAND介质挑战昂贵的HBM霸权,这不仅是物理介质的更迭,更是对大模型推理成本结构的底层重构。围绕这一核心路径,行云构建了极致的软硬件协同设计,通过PD分离、分布式扩展等手段,在系统层面实现了性能与成本的平衡。芯片行业,工程经验决定了从‘实验室架构’到‘商业化量产’的跨度。行云团队在昇腾、昆仑芯等顶尖项目上积淀的深厚流片与量产经验,是其确定性的来源。在AI Agent爆发的当下,我坚信行云能够真正击穿算力成本,让高质量的万亿级模型实现真正的算力普惠。

+1
13

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

谁会受益,谁会付出代价?

2小时前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业