【标题】Deep Reinforcement Learning for System-on-Chip: Myths and Realities

【作者团队】Tegg Taekyong Sung, Bo Ryu

【发表日期】2022.7.29

【论文链接】https://arxiv.org/pdf/2207.14595.pdf

【推荐理由】基于深度强化学习(DRL)的神经调度器在解决现实世界的资源分配问题方面显示出了巨大的潜力,因为它们在集群计算领域表现出了显著的性能增益。本文通过大量实验并与非神经启发式调度算法进行比较,研究了神经调度算法在片上系统资源分配领域的可行性。关键发现有三个方面。首先,由于SoC计算资源的异构性和传入作业中的随机性导致的可变动作集,为集群计算领域设计的神经调度器在SoC中不能很好地工作。其次,本文新颖的神经调度器技术——折衷交互匹配 (EIM) 克服了上述挑战。 具体来说,作者合理化了基于 EIM 的神经调度器性能提升背后的根本原因。第三,作者发现,即使使用EIM,平均处理元素(PE)切换延迟和平均PE计算时间的比率也会显著影响神经SoC调度程序的性能。因此,未来的神经 SoC 调度器设计必须考虑这个指标以及它的实现开销以实现实用性。