- 简介本文指出,由于缺乏代表不同文化的数据,许多大型语言模型(LLM)中存在文化偏见。通常情况下,文化数据集和基准是通过从现有数据集中提取子集或从维基百科和社交媒体等平台进行聚合构建的。然而,这些方法高度依赖于真实世界数据和人类注释,使它们成本高昂且难以扩展。本文受社交交流的认知理论启发,介绍了CulturePark,一种基于LLM的多智能体通信框架,用于文化数据收集。CulturePark模拟跨文化人类交流,LLM代理在不同文化中扮演角色。它生成高质量的跨文化对话,包含人类的信念、规范和习俗。使用CulturePark,我们生成了41,000个文化样本,以微调八个特定文化的LLM。我们在三个下游任务上评估了这些模型:内容审核、文化对齐和文化教育。结果表明,在内容审核方面,我们基于GPT-3.5的模型在数据集上要么与GPT-4相匹配,要么表现更好。关于文化对齐,我们的模型在霍夫斯泰德的VSM 13框架上超过了GPT-4。此外,对于人类参与的文化教育,我们的模型在学习效果和用户体验方面表现出优越性,与GPT-4相比。CulturePark是解决文化偏见和推动AI民主化的重要一步,突显了在模型训练中具有文化包容性的数据的关键作用。
- 图表
- 解决问题本论文旨在解决大型语言模型中文化偏见的问题,提出了一种新的文化数据收集框架CulturePark,并通过该框架生成了高质量的跨文化对话数据,用于训练文化特定的语言模型。
- 关键思路CulturePark框架模拟跨文化人际交流,利用基于语言模型的代理人在不同文化角色中扮演角色,生成高质量的跨文化对话数据,用于训练文化特定的语言模型。该框架生成的语言模型在内容审核、文化对齐和文化教育等下游任务中表现出优异的性能。
- 其它亮点论文使用CulturePark框架生成了41,000个文化样本,用于微调8个文化特定的语言模型。实验结果表明,这些模型在内容审核、文化对齐和文化教育等任务中表现优异。CulturePark框架为解决文化偏见问题和推动人工智能的民主化迈出了重要一步。
- 在相关研究中,也有一些研究试图解决大型语言模型中的文化偏见问题。例如,一些研究使用多语言数据集或跨文化数据集进行训练,而另一些研究利用多语言对抗性训练来减少文化偏见。
沙发等你来抢
去评论
评论
沙发等你来抢