Tensorized NeuroEvolution of Augmenting Topologies for GPU Acceleration

2024年04月02日
  • 简介
    这篇论文介绍了一种针对神经进化算法 NEAT 的张量化方法,可以将其各种不同的网络拓扑和相关操作转化为统一形状的张量进行计算,从而提高算法的并行计算效率。作者们还开发了一个名为 TensorNEAT 的库,实现了张量化的 NEAT 算法及其变种,如 CPPN 和 HyperNEAT,并支持多种基准环境。在 Brax 中的多个机器人控制环境中进行评估后,TensorNEAT 相较于现有实现(如 NEAT-Python)可以实现高达 500 倍的加速。该论文提供了源代码,可在 https://github.com/EMI-Group/tensorneat 上获取。
  • 图表
  • 解决问题
    NEAT算法在计算效率方面存在瓶颈,限制了其可扩展性。本文提出了一种张量化方法,将NEAT算法的网络拓扑和相关操作转化为统一形状的张量进行计算,从而提高计算效率。
  • 关键思路
    本文提出的张量化方法可以使NEAT算法在整个种群中并行执行,从而提高计算效率。此外,作者还开发了TensorNEAT库,支持各种基准环境和硬件加速。
  • 其它亮点
    本文提出的TensorNEAT库在Brax的各种机器人控制环境中获得了高达500倍的加速。作者还开源了代码。
  • 相关研究
    在NEAT算法的相关研究中,有一些研究也关注于提高其计算效率,如NEAT-Python。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论