- 简介大型语言模型(LLMs)越来越多地被纳入科学工作流程中,然而我们仍未完全掌握这种整合的影响。大型语言模型的出现应该如何影响科学实践?在这篇观点文章中,我们邀请了四个不同的科学家团体来反思这个问题,分享他们的观点并进行辩论。Schulz等人认为,与人类合作者一起工作并没有根本性的区别,而Bender等人则认为LLMs经常被误用和过度炒作,它们的局限性需要关注更专业、易于解释的工具。Marelli等人强调透明归因和负责任地使用LLMs的重要性。最后,Botvinick和Gershman主张人类应该保留决定科学路线的责任。为了促进讨论,这四个观点都配有每个团体的回应。通过将这些不同的观点进行对话,我们旨在引起学术界对采用LLMs及其对当前和未来科学实践的影响的重要考虑。
- 图表
- 解决问题大型语言模型在科学工作流中的应用对科学实践产生了怎样的影响?这种集成的含义还未被完全掌握。
- 关键思路通过邀请四个不同领域的科学家分享他们的观点和进行辩论,探讨大型语言模型对科学实践的影响。Schulz等人认为与人类合作者一起工作并没有根本性的不同,而Bender等人则认为大型语言模型经常被误用和过度炒作,他们的局限性需要关注更专业、易于解释的工具。Marelli等人强调透明的归因和负责任的大型语言模型使用。最后,Botvinick和Gershman主张人类应该保留决定科学路线的责任。
- 其它亮点通过四个不同领域的科学家的讨论,探讨大型语言模型对科学实践的影响。讨论涉及大型语言模型的优缺点、透明度、可解释性以及人工智能对科学实践的影响等。
- 最近的相关研究包括使用大型语言模型进行自然语言处理和机器学习的研究,例如《Attention is All You Need》和《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》等。
沙发等你来抢
去评论
评论
沙发等你来抢