英特尔与火山引擎联手,开启「全局效率优化」时代
全球市场都在面临一场前所未有的算力需求爆发。
特别是在多模态技术趋于成熟,企业级复杂Agent落地愈发成熟的当下,越来越多企业跑在了AI转型的前沿。
然而,当模型选择更多,算力需求不断膨胀时,如何算好经济账,如何实现高吞吐、低时延,在稳定性、可靠性与兼容性上更加有的放矢。凡此种种,让AI加速迈入了云原生时代。
12月19日,在2025火山引擎冬季FORCE原动力大会上,豆包大模型1.8及音视频创作模型Seedance 1.5 pro正式亮相。权威评测数据显示,豆包大模型在多模态理解、生成能力及Agent能力上,已跻身全球第一梯队。
另据火山引擎总裁谭待介绍,截至今年12月,豆包大模型日均token使用量突破50万亿,较去年同期增长超过10倍。
在千行百业落地应用AI的关键节点,火山引擎的AI普惠究竟是如何做到的?
爆发背后的AI原生解法
“数据是新时代的石油”,火山引擎总裁谭待曾在采访时表示,云计算行业的第二次浪潮就在于智能化,其意义不仅在于能发挥数据价值,还在于端到端的业务落地,以大模型为基础,包括MaaS(模型即服务)、AI Agent将成为未来数年内的主流叙事。
延续着这样的思路,火山引擎做出了一系列布局。
和1.0时代不同的是,云原生的主体不再是网页,而是Agent。业内将2025年视作Agent元年,作为大模型落地的重要载体,Agent的能力也就决定了大模型应用的深度。
为了打破Agent的能力上限,火山引擎一手抓底层模型,密集迭代模型版本,拿出了性能与性价比兼具的模型产品,如此次更新的视频生成模型Seedance系列,在性能表现上灵活性更高:Seedance-1.0-Lite以成本优先,兼顾速度,适配高频创作。Seedance-1.0-Pro可实现影视级画质与原生音效,支持2–12秒1080P自由生成、多镜头叙事及精准指令参考,满足电影级感官叙事需求。
而Seedance 1.5 pro音视频创作模型有着更为惊艳的完成度,采用创新的原生音视频联合生成架构,支持环境音、背景音乐、人声等多种元素,实现了毫秒级的音画同步输出。在对白处理上,模型支持多人多语言对话,口型对齐精准,覆盖中文方言(如四川话、粤语等)、英文及小语种,极大地提升了视频内容的真实感与全球化创作潜力。
另一方面,火山引擎也携手生态伙伴做好硬件配置,开启云边端协同新模式,通过软硬件高度配合的生态解法,最大化释放AI能力。
今年6月,在火山引擎2025春季原动力大会上,火山引擎已联合英特尔共同发布搭载英特尔至强6性能核处理器的第四代通用计算型(ECS)实例家族,使得传统应用与AI应用全面升级。
据测算,与上一代实例相比,通用计算基础型实例g4i在MySQL数据库和Web应用上分别实现了20%和19%的性能提升,算力增强型实例g4ie在视频解码和图像渲染上带来了15%和26%提升,I/O增强型实例g4il在Spark大数据和Redis数据库上也实现了13%和30%的提升。
在火山引擎的构想中,AI时代CPU同样重要,通过与GPU的高度协同,其为企业级AI Agent提供端到端支持。其特性在于高并发快响应、算力成本进一步实现优化,并保障安全隐私性。
特别是在安全方面,对于许多企业而言,业务的稳定和安全都是最核心的,随着大模型应用深入产业,越来越多高质量、高价值敏感数据都成为AI应用的关键。
火山引擎与英特尔TDX构建的机密虚拟化实例,无论是RAG应用中的信息提取处理流程还是数据库流程,亦或是模型生成流程,都可以在不改变应用程序中间框架的前提下,直接访问机密虚拟机,实现云中的隔离和保护,用户使用RAG部署过程保证数据安全。
火山引擎云存储还引入了至强处理器的压缩加速技术(英特尔®QAT),以提升数据压缩和解压缩效率,实现优于软件LZ4算法的压缩率和更低时延。QAT硬件加速生成CRC32校验码,确保数据完整性,并支持AES-XTS模式的对称加密,增强数据可靠性。
如此强大、灵活并兼顾成本效益的方案,最终构成了企业的AI弹性基础设施底座,加速了企业的智能化进程。正如英特尔市场营销集团副总裁、中国区总经理郭威所言:“释放AI的真正价值,关键在于以易部署、可扩展的方式将其融入企业工作流与个人体验。依托火山引擎在算力资源调度和大规模AI推理优化方面的优势,我们将芯片级的创新通过云原生架构无缝延伸至边缘与终端,实现对多样化、异构算力资源的高效协同与统一交付,构建稳定可靠的服务环境,助力开发者与企业聚焦于业务创新与落地。”
AI普惠前夜,云边端协同撑起一片天
火山引擎的AI云原生,不仅仅是技术的创新,也是未来推动AI应用落地的关键基础设施,通过与英特尔合作推进“云边端协同”趋势,火山引擎将推动AI应用于更为广阔的行业和场景。
在此次2025火山引擎冬季FORCE原动力大会的展位,我们也见到了火山引擎与英特尔在边侧与端侧的多元应用。
在基层社区治理中,工作人员往往面对着琐碎繁杂的事物,并且业务跨度大,往往需求千丝万缕。AI如何在其中发挥价值?社区全能助手“华格格”应运而生。它通过企业AI工作台的智能意图识别能力,能够自动理解用户多领域不同需求,并将其精准分配给对应的智能体,将原本分散在多个系统中的功能无缝衔接、自然协同。
顺畅的使用体验背后,则是英特尔HiAgent智能一体机解决方案在发挥价值。其重点针对多智能体跨域请求需频繁切换、体验割裂、上下文丢失等问题,依托于火山引擎HiAgent企业AI工作台实现了优化。自动将用户跨领域请求及上下文路由至对应智能体,聚合离散功能,打造“一专多能”数字员工,提升使用体验与处理效果。并且是以灵活、普惠的方式进一步降低部署门槛与算力成本。
此前在德国慕尼黑车展期间,懂车帝巨懂车也曾联合英特尔,完成了一场属于未来世界的展览,刷新沉浸式体验的上限。
通过PICO VR眼镜,由英特尔PC与服务器平台驱动的6DoF虚拟现实场景,简单来说,不仅支持用户头部旋转(3个旋转自由度),还能检测用户在空间中的位置移动(3个平移自由度),从而实现真实的空间行走和交互感。但其同样需要极低的延迟才能做到优质的沉浸式体验,因此结合低延迟、高并发的RTC实时通讯技术,多方合作实现多路高清视频低延迟传输至VR设备的效果。
在个人端侧,基于英特尔与火山引擎提供的弹性AI能力,一种新的内容创作工作模式也在诞生。英特尔AI PC视频剪辑Demo,基于LLM/VLM大模型与端云混合算力打造的全自动视频创作工具,通过弹性灵活的算力组合方式,极大的优化生产流程效率。
例如,端侧GPU可运行VLM模型,对视频素材进行深度解析,变成结构化数据后上传至云端。而云端的LLM模型当即发挥所长,依据用户指令,自动完成主题挖掘、故事性规划、分镜编排、背景音乐匹配及字幕生成,依托于脚本规划,再将任务回归本地,端侧完成视频剪辑合成和导出。通过端云协作,最大化优化视频创作者的工作效率。
AI时代,算力已成为企业竞争的“新能源”,而云边端协同,让企业级Agent能力不断趋于成熟。作为AI价值的关键衡量指标,豆包大模型日均调用量实现253倍增长,从去年5月1200亿/天攀升至今年9月的30万亿/天。
截至目前,豆包大模型多个关键行业实现深度落地,覆盖超5亿终端设备、超九成主流车企、八成系统重要性银行和超九成985高校等,展现出广泛的应用前景。
另据谭待现场透露,豆包大模型日均使用量超过50万亿,自发布以来增长417倍。“万亿Tokens俱乐部”成员突破100家。
谭待告诉我们,“明年模型之间最重要的还不是竞争,最重要的是要把市场做大。明年这个市场可能还要再涨10倍,大家其实就不是存量的竞争,不是零和博弈,而是说大家一起把市场做大。同时,明年模型还需要进一步降价,这个市场才能做大。”
如今,AI算力竞争已进入白热化阶段,英特尔与火山引擎的合作正在重新定义企业获取和使用算力的方式。从云端到边缘,从训练到推理,从性能到安全,双方构建的全栈解决方案正逐步消除企业AI转型的技术门槛。如果说最初的通力协作解决了产业智能的单点突破,现如今“全局效率优化”时代正在开启,在火山引擎与英特尔的通力协作下,AI普惠时代终将到来。















