NSDT工具推荐Three.js AI纹理开发包 - YOLO合成数据生成器 - GLTF/GLB在线编辑 - 3D模型格式在线转换 - 可编程3D场景编辑器 - REVIT导出3D模型插件 - 3D模型语义搜索引擎 - Three.js虚拟轴心开发包 - 3D模型在线减面 - STL模型在线切割

本文介绍了 TM-NET,这是一种新颖的深度生成模型,用于以部分感知的方式合成纹理网格。 经过训练后,网络可以从头开始生成新颖的纹理网格或预测给定 3D 网格的纹理,而无需图像引导。 可以为同一网格部件生成合理多样的纹理,同时通过条件生成实现相同形状部件之间的纹理兼容性。

论文下载地址:ArXiv Preprint,代码下载地址:Github,数据集下载地址:这里

1、TM-NET概述

具体来说,我们的方法为各个形状部分生成纹理贴图,每个部分都是一个可变形的盒子,从而产生失真最小的自然 UV 贴图。 该网络分别将部分几何体(通过 PartVAE)和部分纹理(通过 TextureVAE)嵌入到它们各自的潜在空间中,以便于学习以几何为条件的纹理概率分布。

我们引入了一个用于纹理生成的条件自回归模型,它可以以零件几何形状和已经为其他零件生成的纹理为条件,以实现纹理兼容性。 为了产生高频纹理细节,我们的 TextureVAE 通过基于字典的矢量量化在高维潜在空间中运行。 我们还利用纹理中的透明度作为对包括拓扑细节在内的复杂形状结构进行建模的有效手段。 大量实验证明了我们网络生成的纹理和几何形状的合理性、质量和多样性,同时避免了新颖的视图合成方法常见的不一致问题。

2、TM-NET结构

下图为TM-NET 关键组件,用于纹理网格生成。

每个部分都使用两个变分自动编码器 (VAE) 进行编码:PartVAE 用于几何图形,EncP 作为编码器,DecP 作为解码器,TextureVAE 用于纹理,EncP 作为编码器,DecP 作为解码器。 对于纹理生成,TM-NET 设计了一个条件自回归生成模型,该模型以 PartVAE 的潜在向量作为条件输入并输出离散特征图。 这些特征图被解码为输入网格几何体的纹理图像。

下图为用于表示纹理部件的网络架构:用于编码部件几何形状的 PartVAE 和用于纹理的 TextureVAE。

下图为TextureVAE 的网络架构。 编码器将输入图像块映射到两个连续的特征图,顶部(t)和底部(b)。 然后执行基于字典的矢量量化。 解码器将离散特征图作为输入并重建图像。

下图为自回归生成模型的架构。 该网络将索引矩阵作为输入,将几何潜在向量作为条件,并输出重构的索引矩阵。

下图为椅子(第一列和最后一列)之间的潜在空间线性插值的随机采样结果,比较 TM-NET 和 VON [Zhu et al。 2018],TF [Oechsle 等人。 2019],以及逐个部分的 alpha 混合。

通过仅以输入几何条件为条件的学习概率分布的四次采样,随机选择形状条件纹理结果(左)。 种子部分分别是椅座和桌面。 请注意 TM-NET 生成的合理多样的纹理,以及为同一形状的不同部分生成的不同纹理。

下图为具有纹理的生成形状的代表性结果。 我们首先在 SP-VAE 的潜在空间上随机采样以生成结构化网格。 然后我们使用几何潜在作为 PixelSNAIL 的条件来生成所需的纹理。


原文链接:TM-NET: Deep Generative Networks for Textured Meshes

BimAnt翻译整理,转载请标明出处