华为世界模型来了,单卡30分钟生成272㎡场景

量子位·2025年10月28日 15:25
实现1800㎡超大3D场景生成

AI大house真来了。

华为联合上海交通大学、华中科技大学推出了世界模型WordGrow,可以生成1800㎡超大室内场景(19x39块),单卡30分钟就跑了272㎡。

里面的虚拟人还能顺畅导航,不带迷路的。(小声说:大平层确实需要导航)

并且场景具备连贯的几何拓扑和照片级真实感外观,智能体的导航则是在复杂空间布局中自主规划路径。

这可以说是走到哪建到哪了,那场景是怎么搭的?

具备连贯的几何拓扑和照片级真实感外观

以前想造个像样的3D大场景,坑不少。

比如有些技术先靠2D模型画张图,再硬掰成3D,结果换完视角一看,沙发腿歪了、墙壁纹理断了……

还有一些方法最多只能造单个房间,扩展成套房就卡壳;

更离谱的是没有布局逻辑——出现冰箱塞进卧室,床摆在厨房的情况。

现在,WorldGrow来搞装修了(bushi),用三个核心技术填坑。

第一步是先做数据精准预处理,从3D-FRONT这类大规模数据集里提取优质样本,用Blender执行场景切片,通过布尔交集对场景进行区块切分,再靠occupancy检测确保区块内容密度(可见内容≥95%)。

同时,构建了粗、细两个数据集,粗块来确定宏观布局,细块保留纹理细节。

第二步靠3D块补全机制实现了无缝拼接,在生成新区块时,先让结构生成器确定3D结构框架,再让latent生成器重建结构化潜变量(SLAT)特征,保证外观风格统一。

并且,在输入模型时,会把带噪潜变量、补全区域二进制掩码、已掩码的已知区域特征打包融合,让模型依据现有区块的上下文信息精准生成,消除边缘断裂、纹理错位等拼接缝。

第三步是粗到精生成策略,把场景扩展变成了补全缺失块的任务。

先通过粗结构模型敲定整体规划,比如窗户朝向、走廊连接等布局;随后对粗结构进行三线性插值上采样,将分辨率匹配至细块级别,再调用细结构生成器补全家具、纹理等细节。

对比可以看出,WorldGrow能够生成高分辨率、连续的室内场景,且场景具有真实且连贯的纹理。

实验数据显示,在3D-FRONT数据集上,它的几何重建指标MMD、COV均达SOTA,FID(用于评估生成质量的核心指标,越低越优)低至7.52,大幅优于SynCity、BlockFusion等主流方法;

即便扩展到7×7块的超大场景,边缘质量仍然稳定。

在效率上,单张A100显卡,30 分钟即可生成10×10区块(约272㎡)的室内场景,速度是同类技术的6倍。

团队介绍

本文一作是来自上海交通大学的Sikuang Li和Chen Yang,研究完成于他们在华为实习期间。

Chen Yang目前仍为华为研究实习生,研究聚焦于计算机视觉和计算机图形学,导师之一就是这项研究的通讯作者、AI大牛田奇。

田奇,华为终端BG首席科学家,国际欧亚科学院院士,ACM/IEEE Fellow。

论文地址:https://arxiv.org/abs/2510.21682

本文来自微信公众号“量子位”,作者:闻乐,36氪经授权发布。

+1
13

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000
36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业