- 简介本文介绍了一种针对神经进化算法(NEAT)的张量化方法,将其各种网络拓扑和相关操作转化为统一形状的张量以进行计算,从而提高了NEAT算法的计算效率和可扩展性。同时,作者还开发了一个名为TensorNEAT的库,实现了张量化NEAT算法及其变体,如CPPN和HyperNEAT,并通过自动化函数向量化和硬件加速促进了高效的并行计算。此外,TensorNEAT库支持多种基准环境,包括Gym、Brax和gymnax。通过在Brax中进行机器人控制环境的多方面评估,TensorNEAT相比现有实现如NEAT-Python可以实现高达500倍的加速。源代码可在https://github.com/EMI-Group/tensorneat获得。
- 图表
- 解决问题NEAT算法在计算效率上存在瓶颈,限制了其可扩展性,论文试图提出一种基于张量的NEAT算法,以解决这个问题。
- 关键思路论文提出了一种基于张量的NEAT算法,将不同的网络拓扑和相关操作转化为统一形状的张量进行计算,从而实现对整个种群的并行化执行,提高计算效率。
- 其它亮点论文开发了TensorNEAT库,基于JAX实现了张量化的NEAT算法及其变体,支持Gym、Brax和gymnax等多个基准环境;在Brax中的多个机器人控制环境中进行评估,相比现有的NEAT-Python等实现,TensorNEAT实现了高达500倍的加速。
- 在这个领域中,最近的相关研究包括:《Neuroevolution: A Survey of the State of the Art》、《HyperNEAT-GGP: A HyperNEAT-based Atari General Game Playing Agent》等。
沙发等你来抢
去评论
评论
沙发等你来抢