PDF地址:https://atrium.lib.uoguelph.ca/xmlui/handle/10214/26824

这篇论文在机器学习领域做出了一些贡献,特别是在图推理任务。每篇文章都研究并改进了几种图推理应用中的泛化: 经典图分类任务、组合视觉推理和神经网络图参数预测的新任务

 

在第一篇文章中,我们研究了图神经网络中的注意力机制。虽然注意力在GNN中得到了广泛的研究,但它对泛化到更大的噪声图的影响还没有被深入分析。我们证明,在合成图任务中,可以通过仔细初始化GNN的注意力模块来提高泛化能力。我们还开发了一种方法,降低了注意力模块对初始化的敏感性,提高了实际图任务的泛化能力。

 

在第二篇文章中,我们讨论了将问题泛化到视觉场景中罕见或不可见的物体组合和关系。以往的工作多以频繁的视觉构图为主,构图泛化能力较差。为了缓解这一问题,我们发现将损失函数与场景图的结构进行归一化是很重要的,这样可以更有效地利用训练标签。用我们的损失训练的模型显著提高了合成泛化。

 

在第三篇文章中,我们将进一步讨论视觉合成泛化。我们考虑一种数据增强方法,即在训练数据中添加罕见的和不可见的成分。我们开发了一个基于生成对抗网络的模型,该模型根据我们通过扰动真实场景图获得的罕见或不可见的场景图生成合成视觉特征。我们的方法不断改进合成的泛化。

 

在第四篇文章中,我们研究了在不可见的深度神经结构中预测参数的新任务中的图推理。我们的任务的动机是由于用于训练神经网络的迭代优化算法的局限性。为了解决我们的任务,我们开发了一个基于Graph HyperNetworks的模型,并在我们的神经架构图数据集上训练它。我们的模型可以在一次向前传递中预测不可见的深度网络(如ResNet-50)的性能参数。该模型可用于神经结构搜索和迁移学习。

 

内容中包含的图片若涉及版权问题,请及时与我们联系删除