随着微调大型语言模型(LLMs)的成本不断上升,最近的研究努力已经转向开发编辑LLMs中隐含知识的方法。然而,仍然有一个黑云盖顶——知识编辑是否会引发蝴蝶效应?因为目前还不清楚知识编辑是否可能引入潜在风险或副作用。本文首次探讨了与LLMs的知识编辑相关的潜在风险。为了实现这一目标,我们引入了新的基准数据集并提出了创新的评估指标。我们的结果强调了两个关键问题:(1)知识冲突:编辑逻辑上冲突的事实组可能会放大LLMs中固有的不一致性,这是之前方法忽略的一个方面。(2)知识扭曲:为了编辑事实知识而改变参数可能会不可逆地扭曲LLMs的内在知识结构。实验结果生动地证明,知识编辑可能会无意中对LLMs产生意想不到的后果,这需要未来的关注和努力。代码可在https://github.com/zjunlp/PitfallsKnowledgeEditing获得。