浙大/华科提出EVE-NeRF,基于“视角-极线”信息纠缠的可泛化隐式神经辐射场
最近来自浙江大学和华中科技大学的研究人员提出 EVE-NeRF 模型,一种具有泛化能力神经辐射场模型用于少样本的 3D 视图合成。模型以一种纠缠的方式聚合视角-极线特征,并引入场景不变的外观连续性和几何一致性先验,在泛化性 3D 视图合成测试中达到 SOTA,并且在真实世界中具有多种应用场景。
然而,传统的 NeRF 通常只适用于优化单个场景,泛化到新场景需要重新训练。另外,NeRF 的优化一般需要同一场景的 50-100 张多视角高质量图片,这在某些场景中是难以获取的。
因此,跨场景训练、少量视角需求的泛化性 NeRF 方法可提高模型的应用范围和灵活性,并节约时间和资源。
以往的泛化性 NeRF,往往需要经过三个步骤:从图像中提取 2D 特征,学习与辐射场对齐的可泛化特征,以及基于体渲染的光线合成。
然而这些方法在学习可泛化特征的阶段,没有同时关注视角和极线两个维度的特征,导致信息交互不足,最终影响新视角的渲染结果。
▲ EVE-NeRF 与仅有视角维度聚合(左上)、仅有极线维度聚合(右上)对比
另外,以往模型仅仅依靠跨场景数据集提供泛化能力,难以保持 3D 场景的外观的连续性和几何的一致性。
对此,来自浙江大学和华中科技大学的研究人员提出 EVE-NeRF 模型,只需要 3-10 张图片输入,通过纠缠聚合视角和极线两个维度的特征实现跨场景的 3D 视图合成。
项目地址:
该模型有效地缓解了由仅有视角或极线维度交互所可能导致的固有几何和外观约束的缺失问题,从而进一步提高了 3D 表示的泛化能力。
模型 pipeline 如下图所示:
EVE-NeRF 的主要流程涉及三个步骤。首先,在每个源视图中沿着整个极线采集采样点。然后,视角-极线交互(VEI)和极线-视角交互(EVI)模块的交替进行纠缠特征聚合。最后,采用 NeRF 解码器和体渲染来预测目标光线的颜色值。
在实验部分,作者进行了泛化性和 Few-shot 两种环境的测试,并在多种 3D 视图合成数据集进行测试,包括 LLFF、Blender、Shiny 和 DTU,并与以往发表在各大顶会的泛化性 NeRF 的 SOTA 模型进行比较。经定量测试,EVE-NeRF 模型在多项指标中均表现出了最好的效果。
▲ 泛化性定量测试(10张图片输入)
▲ Few-shot 能力定量测试(3张图片输入)
▲ DTU 数据定性对比
EVE-NeRF 在性能方面优于类似的双分支网络,例如下图中 Naïve Dual Transformer 和具有交叉注意力的 Dual Transformer。另外,相比于目前的具有极线/视角聚合的 SOTA 方法,EVE-NeRF 不仅渲染速度更快且模型存储更小。
▲ 双分支网络定性对比
基于几何一致性和外观连续性先验,模型学习到了更强的几何外观感知能力。模型中的邻接注意力和交叉视图注意力分数蕴含了丰富的深度信息和视角信息。
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:[email protected]
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
微信扫码关注该文公众号作者