允中 发自 凹非寺
量子位 | 公众号 QbitAI
一家中国公司默默搞了台相机,直接把索尼、富士集体“抬走”了。
你以为AI冲击影视=生成视频、数字演员?
Nonono,智能技术对影视行业的改变,可能不只发生在AI内容生成这一侧。
被称为“广电界奥斯卡”的NAB Show最新公布了年度产品大奖得主,四项年度大奖,全部被同一个产品拿走了——
一台叫灵视P1的空间相机,来自一家中国公司其域创新。

你敢信?翻开提名名单,满屏都是行业老炮:Adobe、索尼、富士、达芬奇……
结果一个“空间相机”愣是从这群深耕影视广播领域多年的巨头手里,把奖杯打包扛走了。
等等,空间相机是什么东西?它怎么从“大佬局”里杀出来的?
一台空间相机,在国际舞台大杀四方
先说NAB Show是个什么地方。
它是全球广播与影视技术最重要的展会之一,年度产品奖的评审来自全球各地的行业专家,评判标准不只是“技术先不先进”,更看重有没有真正改变行业工作方式的潜力。

这次灵视P1拿的奖横跨智能技术、图形与视觉特效、摄影设备、远程制作四个类别。
主办方评语:
影视行业当前最前沿的创新智能技术之一。
问题是,影视是个出了名挑剔的行业。
工作流高度成熟,每个环节都有稳定的工具链和使用习惯,任何新技术想进来,必须在真实项目里证明自己,预算压力、交付周期、创作质量,一个都不能差。
这样一个地方,凭什么把四个奖都给一个新物种?
扒完才发现:它其实早就不“新”了。
不是概念,已经在真实项目里跑通了
灵视P1不是一台传统意义上的“相机”。
普通相机记录的是二维图片与视频,它记录的是空间——
通过多目相机与激光雷达的融合感知,配合其域创新自研的3D 高斯技术,在移动中采集空间数据,将现实世界自动转化为可交互、可编辑、可分享的三维数字空间。

你看过的影视作品,没准背后就用了这套技术。
戛纳获奖电影《狂野时代》制作期间,取景地被直接扫成三维数字空间,美术、灯光、运镜全在里面推演完毕。
导演和各部门对着同一个数字空间沟通,不再靠各自的记忆和草图拼凑。

韩国广播头部机构SBS推出AIXR Studio,成为全球首家将3DGS与XR整合进新闻直播的广播公司——
背后用的就是灵视P1。
扫描真实场景,转成三维虚拟环境,主播在不同场景间实时切换。
这些“虚拟布景”不是AI生成的,是从真实世界扫出来的,满足了新闻报道对“真实感”的严格要求。

Apple TV+美剧《诊疗中》的虚拟拍摄环节,其域创新也在其中。
拍摄场景提前扫描、数字化重建,直接投到LED屏幕,演员在虚拟环境前实时表演,拍摄时看到的就是最终画面,后期合成工作量大幅压缩。
三个项目,三种不同的用法,指向同一件事:
现实世界,正在被转化为可体验、可互动、可编辑的数字空间。
这是空间智能在做的事,和AI生成内容的逻辑不同——
不是无中生有,而是对真实世界的精确感知与重建。
NAB的评审把四个奖给了这件事,某种程度上是在说:这是一种新的生产方式的入口。
影视,只是空间智能的其中一站
空间智能真正的射程,比影视大得多。
当整个行业还在把3DGS、空间智能当作前沿概念,讨论“未来能做什么”,其域创新已经在用各行各业的落地项目回答这个问题了。
今年GTC上,NVIDIA展示了一套机器人模拟仿真方案:用真实场景扫描重建的三维环境,直接替代人工建模,让机器人在高度仿真的数字空间里完成训练和测试。
这套方案背后的空间智能技术,来自其域创新。

机器人训练为什么需要这个?
原因很直接:仿真环境不够真,模型到了现实里就废了。
而手工建模成本高、周期长,根本跟不上训练需求。
在真实世界扫一遍直接自动化生成仿真环境,是目前最高效的路径之一。
除了NVIDIA,其域创新还在和宇树科技、云深处等具身智能公司合作,给机器人装上“空间智能大脑”,让它们真正看得懂自己所处的三维世界。
空间智能、3DGS,这些词这两年在技术圈被反复提及,但真正跑通的案例,一直不多。
这也是为什么这次NAB的评选值得被单独拎出来看。
评审认可的,不是一个“更炫的技术”,而是一套已经在真实项目中验证过的生产方式。
电影制作、新闻直播、虚拟拍摄,再到机器人训练、仿真环境,这些看似分散的场景,正在被同一件事连接起来:
真实世界,开始成为可以直接被计算、被编辑、被复用的基础资源。
而一旦这件事成立,改变的就不只是影视流程,而是所有依赖“空间”的行业。
这会改变什么,没人能给出完整的答案。
但可以确定的是,它已经不再只是一个概念了。
*本文系量子位获授权刊载,观点仅为原作者所有。
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
🌟 点亮星标 🌟
内容中包含的图片若涉及版权问题,请及时与我们联系删除


评论
沙发等你来抢