大型语言模型(LLMs)越来越多地在现实世界中部署,得益于最近的模型压缩技术。这种向本地部署的势头意味着使用压缩的LLMs将广泛影响大众。然而,以往的分析工作通常优先考虑保留困惑度,这是对训练损失的直接类比。压缩方法对模型行为的其他关键方面,特别是安全性的影响,仍然需要进行系统评估。为此,我们研究了模型压缩对四个维度的影响:(1)退化伤害,即生成中的偏差和毒性;(2)表征伤害,即判别任务中的偏见;(3)方言偏见;(4)语言建模和下游任务性能。我们涵盖了广泛的LLM压缩技术,包括非结构化剪枝、半结构化剪枝和量化。我们的分析揭示了压缩可能会导致意想不到的后果。尽管压缩可能无意中纠正LLMs的退化伤害,但仍可能在表征伤害轴上加剧。此外,随着压缩率的增加,不同受保护群体的影响也存在分歧。最后,不同的压缩方法对安全性的影响有着截然不同的影响,例如量化主要保留偏见,而剪枝则迅速降低。我们的发现强调了将安全评估整合到压缩LLMs的开发中以确保它们在实际应用中的可靠性的重要性。我们的全部结果在此处提供:\url{https://github.com/zhichaoxu-shufe/Beyond-Perplexity-Compression-Safety-Eval}。
提问交流