活动
论文
风云榜
专栏
知识树
项目
社交
登录/注册
手机扫码分享
分享
Small Batch Size Training for Language Models: When Vanilla SGD Works, and Why Gradient Accumulation Is Wasteful
3314
查看论文
热度