允中 发自 凹非寺
量子位 | 公众号 QbitAI

一家中国公司默默搞了台相机,直接把索尼、富士集体“抬走”了。

你以为AI冲击影视=生成视频、数字演员?

Nonono,智能技术对影视行业的改变,可能不只发生在AI内容生成这一侧。

被称为“广电界奥斯卡”的NAB Show最新公布了年度产品大奖得主,四项年度大奖,全部被同一个产品拿走了——

一台叫灵视P1空间相机,来自一家中国公司其域创新

你敢信?翻开提名名单,满屏都是行业老炮:Adobe、索尼、富士、达芬奇……

结果一个“空间相机”愣是从这群深耕影视广播领域多年的巨头手里,把奖杯打包扛走了。

等等,空间相机是什么东西?它怎么从“大佬局”里杀出来的?

一台空间相机,在国际舞台大杀四方

先说NAB Show是个什么地方。

它是全球广播与影视技术最重要的展会之一,年度产品奖的评审来自全球各地的行业专家,评判标准不只是“技术先不先进”,更看重有没有真正改变行业工作方式的潜力。

这次灵视P1拿的奖横跨智能技术、图形与视觉特效、摄影设备、远程制作四个类别。

主办方评语:

影视行业当前最前沿的创新智能技术之一。

问题是,影视是个出了名挑剔的行业。

工作流高度成熟,每个环节都有稳定的工具链和使用习惯,任何新技术想进来,必须在真实项目里证明自己,预算压力、交付周期、创作质量,一个都不能差。

这样一个地方,凭什么把四个奖都给一个新物种?

扒完才发现:它其实早就不“新”了。

不是概念,已经在真实项目里跑通了

灵视P1不是一台传统意义上的“相机”。

普通相机记录的是二维图片与视频,它记录的是空间——

通过多目相机与激光雷达的融合感知,配合其域创新自研的3D 高斯技术,在移动中采集空间数据,将现实世界自动转化为可交互、可编辑、可分享的三维数字空间。

你看过的影视作品,没准背后就用了这套技术。

戛纳获奖电影《狂野时代》制作期间,取景地被直接扫成三维数字空间,美术、灯光、运镜全在里面推演完毕。

导演和各部门对着同一个数字空间沟通,不再靠各自的记忆和草图拼凑。

韩国广播头部机构SBS推出AIXR Studio,成为全球首家将3DGS与XR整合进新闻直播的广播公司——

背后用的就是灵视P1。

扫描真实场景,转成三维虚拟环境,主播在不同场景间实时切换。

这些“虚拟布景”不是AI生成的,是从真实世界扫出来的,满足了新闻报道对“真实感”的严格要求。

Apple TV+美剧《诊疗中》的虚拟拍摄环节,其域创新也在其中。

拍摄场景提前扫描、数字化重建,直接投到LED屏幕,演员在虚拟环境前实时表演,拍摄时看到的就是最终画面,后期合成工作量大幅压缩。

三个项目,三种不同的用法,指向同一件事:

现实世界,正在被转化为可体验、可互动、可编辑的数字空间。

这是空间智能在做的事,和AI生成内容的逻辑不同——

不是无中生有,而是对真实世界的精确感知与重建。

NAB的评审把四个奖给了这件事,某种程度上是在说:这是一种新的生产方式的入口。

影视,只是空间智能的其中一站

空间智能真正的射程,比影视大得多。

当整个行业还在把3DGS、空间智能当作前沿概念,讨论“未来能做什么”,其域创新已经在用各行各业的落地项目回答这个问题了。

今年GTC上,NVIDIA展示了一套机器人模拟仿真方案:用真实场景扫描重建的三维环境,直接替代人工建模,让机器人在高度仿真的数字空间里完成训练和测试。

这套方案背后的空间智能技术,来自其域创新。

机器人训练为什么需要这个?

原因很直接:仿真环境不够真,模型到了现实里就废了。

而手工建模成本高、周期长,根本跟不上训练需求。

在真实世界扫一遍直接自动化生成仿真环境,是目前最高效的路径之一。

除了NVIDIA,其域创新还在和宇树科技、云深处等具身智能公司合作,给机器人装上“空间智能大脑”,让它们真正看得懂自己所处的三维世界。

空间智能、3DGS,这些词这两年在技术圈被反复提及,但真正跑通的案例,一直不多。

这也是为什么这次NAB的评选值得被单独拎出来看。

评审认可的,不是一个“更炫的技术”,而是一套已经在真实项目中验证过的生产方式。

电影制作、新闻直播、虚拟拍摄,再到机器人训练、仿真环境,这些看似分散的场景,正在被同一件事连接起来:
真实世界,开始成为可以直接被计算、被编辑、被复用的基础资源。

而一旦这件事成立,改变的就不只是影视流程,而是所有依赖“空间”的行业。

这会改变什么,没人能给出完整的答案。

但可以确定的是,它已经不再只是一个概念了。

*本文系量子位获授权刊载,观点仅为原作者所有。


一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—  —

🌟 点亮星标 🌟

科技前沿进展每日见

内容中包含的图片若涉及版权问题,请及时与我们联系删除