020年疫情刚开始的时候,《动手学深度学习》的英文版相较中文版已经多出不少内容了。我们书第一版的不少老读者表示,疫情在家虽然想学习,但第一版早就刷完,于是只好刷阿信和小抖。沐神和我的第一反应是:
这样对眼睛不好。
于是不等英文版完成,我们就立即发起中文版2.0的项目。具体来说:
-
我们继续在英文版添加新内容和改进已有内容。 -
何孝霆与Rachel(瑞潮儿)两位主力选手和d2l-ai/d2l-zh GitHub社区众多小伙伴共同努力,不断将英文版的最新内容同步到中文版,包括PyTorch和TensorFlow的实现。 -
沐神牺牲宝贵的带娃时间,基于不断更新的中文版内容每周直播教学(李沐:动手学深度学习PyTorch篇直播总结)

主要特点
主要改进
-
丰富并修订了第一版第十章“自然语言处理”内容,并分为“自然语言处理:预训练”和“自然语言处理:应用”两章,添加了“BERT”和“自然语言推断”的相关内容; -
丰富并修订第一版“附录内容”内容,并调整为第十六章; -
更新全书内容与英文版0.17.1保持一致。
详细改进
-
第14章:自然语言处理:预训练 -
14.1. 词嵌入(Word2vec) -
14.2. 近似训练 -
14.3. 用于预训练词嵌入的数据集 -
14.4. 预训练word2vec -
14.5. 全局向量的词嵌入(GloVe) -
14.6. 子词嵌入 -
14.7. 词的相似性和类比任务 -
14.8. 来自Transformer的双向编码器表示(BERT) -
14.9. 用于预训练BERT的数据集 -
14.10. 预训练BERT -
第15章:自然语言处理:应用 -
15.1. 情感分析及数据集 -
15.2. 情感分析:使用递归神经网络 -
15.3. 情感分析:使用卷积神经网络 -
15.4. 自然语言推断与数据集 -
15.5. 自然语言推断:使用注意力 -
15.6. 针对序列级和词元级应用程序微调BERT -
15.7. 自然语言推断:微调BERT -
第16章:(附录)深度学习工具 -
16.1. 使用Jupyter Notebooks -
16.2. 使用Amazon SageMaker -
16.3. 使用Amazon EC2实例 -
16.4. 选择服务器和GPU -
16.5. 为本书做贡献 -
16.6. d2l API 文档
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢