让计算机产生令人赏心悦目的图片,创造出和真实世界一致的虚拟世界,一直是计算机图形学研究人员追求的目标。
受限于传统方法在处理大规模几何、复杂材质以及特殊光照方面的局限性,计算机还无法达到“以假乱真”的程度。因此,研究人员需要新的探索方向,提高计算机的图形渲染能力。

在OPPO 和南京大学合作的题为“Highlight-Aware Two-Stream Network for Single-Image SVBRDF Acquisition”的论文中,研究员们从深度学习出发,用神经网络结合大量数据,尝试在未知的空间变化情况下,完成平面材质的外观建模。论文中的方法仅采用了单张图片作为输入,不需要相机参数和光源参数,就能输出高质量材质参数。文本已被计算机图形学顶级国际学术会议 ACM SIGGRAPH 2021 接收。SIGGRAPH是全球影响最广、规模最大、最权威的计算机图形学会议,每年全球仅130篇左右论文入选。
图形学和深度学习的融合
在虚拟三维场景内容创建过程中,材质的高质量重建向来是一个复杂耗时的工作。传统的材质重建方法通常需要依赖特殊的设备、受过专业训练的技术员以及长时间的拍摄。
而OPPO和南京大学合力设计的双流网络,只需要消费级别的相机(手机等),并且只需要拍摄一张图片,即可由非专业人员重建出高质量的材质参数。
其中,双流网络以HA卷积为基础,其中HA卷积的作用是:在过度曝光的图像区域填补缺失内容;因此,双流网络可以充分利用图像的有用特征,促进材质属性的解缠学习。这也正是本篇论文的关键性创新。
论文地址:https://dl.acm.org/doi/10.1145/3450626.3459854
内容中包含的图片若涉及版权问题,请及时与我们联系删除


评论
沙发等你来抢