像 GPT-4 这样的大型语言模型已经在广泛的基于语言的任务中取得了显著的熟练度,其中一些任务传统上与人类智能的标志相关。这引发了关于我们能否有意义地归因于语言模型任何语言或认知能力的争议。这些问题有深刻的哲学根源,回响着有关人工神经网络作为认知模型的长期争论。本文是两篇伴随论文的第一部分,既是哲学家关于语言模型的入门指南,又是对它们在认知科学、人工智能和语言学经典争论中意义的主观调查。我们涵盖了组合性、语言习得、语义能力、基础、世界模型和文化知识传播等主题。我们认为,语言模型的成功挑战了人工神经网络的几个长期持有的假设。然而,我们也强调需要进一步的实证研究来更好地理解它们的内部机制。这为伴随论文(第二部分)奠定了基础,后者将转向探索探究语言模型内部运作的新的实证方法和它们最新发展所引发的新哲学问题。