在一个庞大的单体图上训练图神经网络(GNNs)存在独特的挑战,因为该图无法适应单台机器,也无法分解为更小的不相连的组件。分布式基于采样的训练将图分布在多台机器上,并在每个训练迭代中对随机采样的图的小部分进行GNN训练。我们发现,在分布式环境中,采样开销是大规模图训练时间的一个重要组成部分。我们提出了FastSample,它由两个协同技术组成,极大地减少了分布式采样时间:1)一种新的图分区方法,消除了分布式采样中的大部分通信轮次,2)一种新颖的高度优化的采样核,减少了采样过程中的内存移动。我们在大规模图基准测试上测试了FastSample,并显示FastSample加速了基于分布式采样的GNN训练,速度提高了2倍,而精度没有损失。