投稿作者:占方能(MIT研究员)


 3D 视觉领域,如何从二维图像快速、精准地恢复三维世界,一直是计算机视觉与计算机图形学最核心的问题之一。从早期的Structure-from-Motion (SfM) Neural Radiance Fields (NeRF),再到3D Gaussian Splatting (3DGS),技术的演进让我们离实时、通用的 3D 理解越来越近。



然而,以往的方法往往依赖于每个场景的反复优化(per-scene optimization),既慢又缺乏泛化能力。在 AI 驱动的新时代,一个全新的范式正在崛起 —— Feed-Forward 3D



这篇由NTU、Caltech、Westlake、UCSD、Oxford、Harvard、MIT 等 12 所机构联合撰写的综述论文《Advances in Feed-Forward 3D Reconstruction and View Synthesis》,主要总结了过去五年(2021–2025)间涌现的数百项创新工作,首次建立了完整的 Feed-Forward 3D 方法谱系与时间线



论文链接:https://arxiv.org/abs/2507.14501

论文主页:https://fnzhan.com/projects/Feed-Forward-3D/



五大代表性技术分支


综述将所有 Feed-Forward 3D 方法划分为五类主流架构,每一类都推动了该领域的关键进展:


1.NeRF-based Models


Neural Radiance Fields (NeRF) 提出了体积渲染的可微分框架,但其“每个场景都要优化”的缺点导致效率低下。自 PixelNeRF [CVPR’21] 起,研究者们开始探索“条件式 NeRF”,让网络直接预测辐射场。这一方向发展出多个分支:


  • 1D 特征方法(如 CodeNeRF、ShaRF)

  • 2D 特征方法(如 GRF、IBRNet、GNT、MatchNeRF)

  • 3D 特征方法(如 MVSNeRF、GeoNeRF、NeuRay)



2.PointMap Models


这一分支由 DUSt3R (CVPR’24) 引领,直接在 Transformer 中预测像素对齐的 3D 点云(pointmap),无需相机姿态输入。后续工作 MASt3R、Fast3R、CUT3R、SLAM3R、VGGT 等相继提出更高效的多视整合,长序列记忆机制,以及大场景处理能力等。



3.3D Gaussian Splatting (3DGS)


3DGS 是近年来最具突破性的表示之一,将三维场景表示为高斯点云,兼顾了体积渲染的质量与光栅化的速度。然而原始 3DGS 仍需优化。Feed-Forward 研究者通过引入神经预测器,实现了“直接输出高斯参数”的能力,主要方法包括:


  • Image-based Gaussian Map:实现从单张图像到高斯场的预测,如 PixelSplat、GS-LRM、LGM、FreeSplatter;

  • Volume-based Gaussian Representation:将场景嵌入可学习体素或三平面结构中,如 LaRa、GaussianCube、QuickSplat、SCube。



4.Mesh / Occupancy / SDF Models


这一类方法延续了传统几何建模思路,并与 Transformer 与 Diffusion 模型结合:


  • MeshFormer、InstantMesh、MeshGPT、MeshXL 引入可自回归或大模型结构;

  • SDF 方法(如 SparseNeuS、C2F2NeuS、UFORecon)结合体积感知与 Transformer 特征聚合,实现了高精度表面建模。


5.3D-Free Models


这类方法不再依赖显式三维表示,而是直接学习从多视图到新视角的映射。


  • Regression-based:如 SRT、OSRT、RePAST、LVSM,利用深度神经网络直接端到端拟合目标结果;

  • Generative Diffusion-based:以 Zero-1-to-3、SyncDreamer、MVDream、CAT3D、CAT4D 为代表,将图像或视频扩散模型迁移到三维生成领域。这些模型让“一张图生成整个场景”成为可能。





多样化任务与应用场景


  • 论文系统总结了 Feed-Forward 模型在多个方向的应用:

  • Pose-Free Reconstruction & View Synthesis(PF3Plat、NoPoSplat) 

  • Dynamic 4D Reconstruction & Video Diffusion(MonST3R、4D-LRM、Aether) 

  • SLAM 与视觉定位(SLAM3R、VGGT-SLAM、Reloc3R) 

  • 3D-Aware 图像与视频生成(DiffSplat、Bolt3D) 

  • 数字人建模(Avat3R、GaussianHeads、GIGA) 

  • 机器人操作与世界模型(ManiGaussian、ManiGaussian++)



Benchmark 与评测指标


论文收录了超过 30 个常用 3D 数据集(见第 13 页表 1),涵盖对象级、室内、室外、静态与动态场景,标注模态包括 RGB、深度、LiDAR、语义与光流等。

同时总结了 PSNR / SSIM / LPIPS(图像质量),Chamfer Distance(几何精度),AUC / RTE / RRA(相机姿态)等标准指标体系,为未来的模型比较提供统一基线。




评测结果: Feed-Forward 3D 的量化进展


根据 Table 2–5 的结果,本综述对多项任务进行了系统对比:


1. 相机姿态估计(Camera Pose Estimation)



2. 点图重建(Point Map Estimation)



3 .视频深度估计(Video Depth Estimation)



4. 单图新视角合成(Single-Image NVS)




未来挑战与趋势


论文在第 5 章提出四大开放问题:


1.多模态数据不足RGB-only 仍占主流,缺乏统一的深度/LiDAR/语义对齐数据;

2.重建精度待提升尚未全面超越 MVS 在细节层面的表现;

3.自由视角渲染难度高遮挡与光照建模仍受限;

4.长上下文推理瓶颈处理 100+ 帧序列需 40 GB 以上显存。


未来方向包括:


  • Diffusion Transformers 与长程注意力结构

  • 可扩展的4D 记忆机制;

  • 多模态大规模数据集构建(RGB + Depth + LiDAR + 语义);

  • 同时具有生成和重建能力的 Feed-Forward 模型。




内容中包含的图片若涉及版权问题,请及时与我们联系删除