- 简介本文介绍了随机化是一种强大的工具,可以赋予算法出色的性能。例如,随机化算法在对抗性环境下表现出色,通常能够超越确定性算法的最坏情况性能。此外,通过简单的策略,如重复和多数投票,它们的成功概率可以被放大。本文通过随机化增强了深度神经网络,特别是变压器模型。我们首次证明了随机化算法可以通过学习以纯数据和目标驱动的方式灌输到变压器中。首先,我们分析了已知的对抗性目标,这些目标对于随机化算法比确定性算法具有明显优势。然后,我们展示了常见的优化技术,如梯度下降或进化策略,可以有效地学习变压器参数,利用提供给模型的随机性。为了说明随机化在赋能神经网络方面的广泛适用性,我们研究了三个概念性任务:联想回忆、图着色和探索网格世界的代理。除了通过学习随机化增强了对无意识对手的鲁棒性之外,我们的实验还揭示了由于神经网络计算和预测的固有随机性而带来的显着性能提升。
-
- 图表
- 解决问题论文旨在通过随机化增强深度神经网络,特别是Transformer模型,以提高其鲁棒性和性能。论文试图解决如何通过学习将随机算法嵌入到神经网络中的问题。
- 关键思路论文提出了一种数据驱动的方法,通过梯度下降或进化策略等优化技术,有效地学习Transformer参数,使其能够利用模型提供的随机性。同时,论文还展示了随机化对于增强神经网络性能的重要性。
- 其它亮点论文通过实验展示了随机化对于增强神经网络性能的重要性,并提出了三个概念任务:联想回忆、图着色和探索网格世界。论文还使用了开源代码和多个数据集,为后续的研究提供了基础。
- 在最近的研究中,也有一些关于增强神经网络性能的方法,如Dropout和Bootstrap等。此外,还有一些关于随机化算法的研究,如Monte Carlo方法和随机梯度下降等。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流