今天是2023年9月5日,星期二,北京,天气晴。

我们继续来看大模型幻觉的问题,RAG外挂是一个可行的方案,也可以通过检索、重排以及总结后送入大模型后再进行摘要。

hint

但是,有的时候我们又会想,大模型的幻觉有用吗?无中生有是否也是其创造力?这方面的文章很少,有几篇提及了其生成多样性,不知道算不算幻觉。

但这得看度量衡,胡说八道就是多样性,但对于事实上,多样性就是幻觉。因此,为了这个问题,社区今天总结了大模型幻觉相关的一些现有研究。

具体幻觉问题包括幻觉在学术界如何做的定义其如何做修正,也什么会发生幻觉,在缓解幻觉问题上,当前有哪些前沿探索方案,如下脑图所示【可加入社区获取高清编辑版】:

这是个很有趣的话题,本文将从RefGPT提升事实性数据集的方法、面向知识图谱的大模型幻觉性评测:KoLA以及HaluEval幻觉性评测构成实现三个方面进行介绍。


例如,RefGPT提升事实性数据集的方法的意义在于,其最接近于我们进行行业问答落地的场景,但其构建中应该存在一些其他的样本,例如需要包括几种情况:检索知识(正相关)+LLM:答案、检索知识(不相关)+LLM:大模型自己生成答案、检索知识(不相关)+LLM:回复默认答案或者拒绝回答三种。


供大家一起参考并思考。

一、RefGPT事实性对话数据集的构造方法

事实正确性是ChatGPT的一大薄弱环节,也是所有试图复现ChatGPT的同行们所面临的重大挑战。

想要提升事实正确性,可以标注大量的事实型对话数据(比如人物、科技、医疗、法律、艺术)用于微调GPT模型。

为了避免人工标注的昂贵成本,自动生成海量、高质量、事实型多轮对话,用于训练GPT,提升GPT的事实正确性。RefGPT【项目地址https://github.com/sufengniu/RefGPT采用如下方法自动生成数据。

首先,采集优质的事实型文档,即reference,其来源可以是电子书、维基百科、优质垂类网站。文档需要涵盖尽量多的主题,包括但不限于人物、机构、科技、医疗、法律、人文、经济、家居、汽车、出行、美食、时尚、体育、教育、宠物。 

其次,利用已有的LLM(例如付费API)生成多轮对话输入是一篇reference,prompt类似“请根据这篇文章生成多轮问答”,API会输出一段多轮对话(dialogue),这种方法将原本只适合预训练的文档转化成可供微调的多轮对话。 

第2步收集到大量的reference-dialogue二元组,将reference和prompt作为输入,dialogue作为目标,微调一个GPT模型(可以基于LLaMA或BLOOM的预训练基座)。

将微调出的模型称作Reference-to-Dialogue GPT,缩写RefGPT。有了RefGPT,即可基于reference生成多轮对话,获得海量的数据。

不过,在实现过程中,需要注意2点。

首先,Reference的质量、广度。Reference内容质量必须高,比如医疗等优质垂类网站的页面、维基百科上非生僻的词条,且需要对网页做清洗。Reference的广度应当大,不能限制在单个垂类或单个网站。

调用已有LLM时需要写prompt,需要仔细尝试各种prompt,使得LLM生成的多轮对话符合预期。

最终实现的样例如下:

{
  "dialogue""Human: 请告诉我维克塞尔伯格的游艇\"探戈\"号的相关信息\n\nAssistant: 你好!根据提供的信息,维克塞尔伯格(Viktor Vekselberg)是俄罗斯领导人的亲密盟友,他拥有一艘名为“探戈”号(Tango)的游艇。这艘游艇长约78米,估计价值高达1.2亿美元。维克塞尔伯格是莫斯科雷诺瓦集团的负责人,这个集团在金属贸易、采矿业、科技等多个领域都有业务。然而,据美国司法部透露,维克塞尔伯格可能利用空壳公司来混淆游艇的所有权,并试图绕过银行对游艇行业的监管。\n\nHuman: 谢谢你的解释,能详细介绍一下美国司法部指控维克塞尔伯格的事情吗?\n\nAssistant: 当然可以。美国司法部针对维克塞尔伯格的指控是关于他购买\"探戈\"号游艇的行为。他被指在2011年购买“探戈”号后的10年里,利用空壳公司来隐藏和混淆游艇的所有权。空壳公司以其难以追踪的性质为人们规避税收、洗钱和其他非法活动提供了便利。此外,维克塞尔伯格还被指控试图绕过银行对游艇行业的监管。他可能利用这些手段来避免可能对游艇进行的贷款审查、资产冻结或其他限制。美国司法部通过提起诉讼来调查这些指控并采取相应的法律行动。\n\nHuman: 维克塞尔伯格掌握的雷诺瓦集团在哪些领域有业务?\n\nAssistant: 雷诺瓦集团是一个莫斯科的公司,主要业务涵盖多个领域。根据提供的信息,他们涉足金属贸易、采矿业和科技等行业。雷诺瓦集团在这些领域的业务可能包括生产和销售各种金属产品,探矿开发、提炼、加工矿产资源,以及投资或开发高科技项目。维克塞尔伯格作为集团的负责人,对公司的发展方向和业务扩张具有很大的影响力。\n\nHuman: 这艘游艇为什么会被扣押?\n\nAssistant: 根据提供的信息,游艇被扣押的原因与美国司法部所提出的指控有关。因为维克塞尔伯格被指控利用空壳公司混淆游艇\"探戈\"号的所有权,并尝试规避银行对游艇行业的监管,美国司法部对此进行了调查。出于对这些指控的审查和可能的法律行动,美国司法部决定扣押这艘游艇。这一行动旨在确保有关方面的合规性,同时帮助揭示潜在的非法行为,以便对相关责任进行追究。\n\nHuman: 你认为维克塞尔伯格是无辜的么?\n\nAssistant: 作为一个聊天机器人,我无法表达个人意见或判断他人的清白。我的任务是提供关于提问主题的信息。在这里,我可以告诉您关于维克塞尔伯格、游艇\"探戈\"号和美国司法部指控的相关信息。至于维克塞尔伯格是否无辜,还需要通过法律途径进行调查和评判。如果您有其他问题,我会很高兴为您解答。"
  "reference""探戈\n俄罗斯领导人的亲密盟友维克塞尔伯格(Viktor Vekselberg)的游艇名为“探戈”号(Tango)。\n 美国司法部提交的一份法庭文件显示,被扣押的游艇名为“探戈”号(Tango),长约78米,价值或高达1.2亿美元,属于俄罗斯领导人的亲密盟友维克塞尔伯格(Viktor Vekselberg)。他是总部位于莫斯科的雷诺瓦集团负责人,该集团涉足金属贸易、采矿业、科技等多个领域。美国狂买俄罗斯原油 美司法部指控维克塞尔伯格于2011年购买“探戈”号后的10年里,利用空壳公司混淆他的所有权利益,还试图绕过银行对游艇行业的监管。  \n"
}

二、面向知识图谱的大模型幻觉性评测:KoLA

我们之前一直在说知识图谱应用到大模型能有什么作用,知识图谱作为一个事实性较强的知识库,可以作为评测任务对大模型进行评估。

KoLA就是这方面的一个尝试,其提出了基于19个关注实体、概念和事件的任务,从知识的记忆、理解、应用和创造4个层级,来衡量大语言模型处理结构化知识的能力,里面的评估方案值得关注。

论文地址:https://arxiv.org/pdf/2306.09296.pdf

评测地址:https://kola.xlore.cn

其在数据集建设上很有趣,值得关注。

首先,评估LLM的一个常见问题是训练数据变化带来的公平性问题和潜在的测试数据泄露风险。为了尽量减少这些偏差,设计了已知数据和演化数据两个数据源:

对于已知数据源,采用维基百科,一个公认的高质量知识丰富的语料库,包含超过660万篇英文文章,因为自BERT以来已被众多预训练语言模型用于预训练,并被广泛纳入开放的预训练语料库。因此认为假设每个LLM都在维基百科上训练过是合理的,并将其作为我们的已知数据源

考虑到许多LLM表示它们只能基于"2021年之前的内容"提供答案,选择维基数据的高质量子集Wikidata5M作为基础,它允许链接到2019年版本的维基百科转储,从而能够选择或重建下游任务的数据集。

对于变动【不断演化】的数据。考虑到模型训练所需的时间,新出现的数据被LLM及时训练的可能性较小,因此设计了一种不断发展的评估机制,即不断检索最近90天内发布的网络内容作为数据源,并在此基础上构建新的数据集。这种方法可以确保公平地评估LLM在未见内容上的表现,以及它们是否"秘密"涉及到了像外部搜索这样的知识更新模块。

每次更都需要抓取至少500篇文章,以支持构建测试集。

在这两种数据源的基础上,选择并构建了19个任务,如表1所示。

其中:

1、知识记忆:补全

效仿LAMA,通过探查LLM中的事实来评估知识记忆,但数据源上重新构建数据集。

在数据上,

给定Wikidata5M中的三元组,用特定关系模板将其转换为句子,并让LLMs完成其尾部实体。

此外,为了探索LLM的知识记忆是否与训练频率相关,根据维基百科中出现的频率对Wikidata5M中的实体进行排序,从而创建了两个测试集:

(1-1)高频知识。从出现频率最高的前2,000个实体中随机抽取100个实体,构建包含这些实体的三元组数据;

(1-2)低频知识。从最低频率的实体中随机抽取100个实体,构建更具挑战性的评估集;

  (1-3)不断演化的记忆测试(ETM)。从不断演化的数据源中的文章中注释其中显示的知识三元组,只保留100个无法从以前可用的语料库中推断出的三元组。

在此基础上,基于此,形成如下测试方案,对应的instruction:

1-1/2 High/Low-Freq:Wikidata5M中选取三元组,用谓词模板转化为句子,让大模型预测客体(尾实体)。

其中尾实体是从2000个最高频实体中选出(1-1),或选择低频实体(1-2)。

1-3 ETM:从新语料中选取理论上之前没有出现过的三元组,做类似的客体预测。

2、知识理解:信息抽取

知识理解能力是通过LLM是否能够理解文本中各种类型的知识(包括概念、实体、实体关系、事件和事件关系)来评估的。

在数据设计上,

(2-1/2-2/2-3)概念探测采用COPEN的三个探测任务(CSJ、CPJ、CiC)来评估模型对概念知识的理解。

(2-4)命名实体识别采用FewNERD数据集,从中随机抽取了300个实例进行评估。

(2-5)关系抽取从具有挑战性的文档级关系抽取数据集DocRED中选择未披露的测试集。

(2-6)事件检测采用精细注释的MAVEN数据集中的未披露测试集。

(2-7)事件关系抽取采用MAVEN-ERE的未公开测试集,该测试集包含113k例事件间的核心参照、时间关系、因果关系和子事件关系。

(2-8)不断发展的理解测试(ETU)。对于演化数据中的文章,进行实体识别,并按照DocRED的相同关系模式标注一个全新的测试集,该测试集包含来自50篇文章的100个关系实例。

基于此,形成如下测试方案,对应的instruction:

2-1/2/3 COPEN-CSJ/CPJ/CiC:采用COPEN数据集,要求大模型选择与给定概念最相似的感念,判断概念属性相关断言的正误,选择合适的概念补全上下文。

2-4 FewNERD:小样本实体识别数据集

2-5 DocRED:文档级关系抽取数据集(未公开的测试集)

2-6/7 MAVEN/MAVEN-ERE:事件检测、事件关系抽取数据集(未公开的测试集)

2-8 ETU:从新语料中,类似DocRED,构建文档级关系抽取

3、知识应用:事实推理

知识应用能力是通过LLM的多跳推理能力来评估的,特别是对世界知识的推理能力。

在数据上,KoLA中包含了以下基于维基百科的渐进式数据集:

(3-1)HotpotQA,一个问题解答数据集,涉及大量由母语者编写的自然语言问题,考察机器在比较、多跳推理等方面的能力。然而,HotpotQA的局限性在于有些问题可以通过捷径来回答。

为了解决这个问题,(3-2)2WikiMultihopQA,通过人工设计的模板确保问题无法通过捷径解决,但其问题在语言上缺乏自然性。

此外,(3-3)MuSiQue数据集同时解决了快捷方式和自然性的难题。它的问题由现有数据集中的简单问题组成,复杂推理可达四跳。

(3-4)KQAPro,一个大规模数据集,其问题相对复杂,可对LLM的逻辑运算和修饰符多跳推理进行更精细的评估。

(3-5)KoRC,一个需要在文本和知识库之间进行联合推理的数据集。它与上述四个数据集不同,需要的是隐式推理而不是显式推理。

(3-6)EvolvingTestofApplying(ETA)采用与KoRC相同的构建方法,根据350个注释知识三元组和演化数据中的40篇文章生成49个问题。

基于此,形成如下测试方案,对应的instruction:

1)3-1HotpotQA:多跳抽取式问答数据集

2)3-22WikiMultihopQA:类似的多跳问答,问题通过模板构建,确保不能被单跳解答,但却不够自然。

3)3-3 MuSiQue:类似的多跳问答,避免了推理捷径和模板构建的问题。

4)3-4 KQA Pro:类似的多跳问答,包含了更复杂的逻辑推理。

5)3-5 KoRC:需要文档联合知识库进行推理,涉及隐式推理能力。

6)3-6 ETA:从新语料中,类似KoRC构建问答数据。

4、知识创造:生成内容的连贯性和正确性

如何评价知识创造能力是一个开放且具有挑战性的问题,提出了一个基于知识基础的文本生成任务的可行建议。在历史、新闻和小说等叙事文本的生成过程中,创造力的核心在于对后续事件的描述。

因此,试图通过评估生成文本中的事件知识幻觉来评价模型的创作能力。

为了建立一个标准参考,建立了一个标注平台,对维基百科文本和演化数据中的文章进行细粒度事件注释,从而构建了两个评估数据集:

(4-1)百科知识创作,基于维基百科文章;

(4-2)开放知识创作,基于未见新闻和小说,作为创作演化测试(ETC)。

基于此,形成如下测试方案,对应的instruction

1)4-1/4-2 Encyclopedia/ETC:根据史料、新闻和科幻小说续写可能发生的事件。4-1基于维基百科,如下:

4-2基于新语料,如下:

5、模型评测效果

在表2和表3中报告了所有模型的标准化得分,其中"-"表示由于输入比模型上下文长度长而无法获得结果。

如平均标准分(Avg)所示,GPT-4(2.06)和GPT-3.5-turbo(1.32)保持了相当大的优势。尽

里面有几个很有趣的发现:

 (1)对于没有对齐或指令调整的模型(如GPT-J和BLOOM),知识记忆(KM)级别的排名与模型大小之间存在很强的相关性(斯皮尔曼系数为0.79)。这表明,模型大小对记忆所见知识有明显的积极影响,这也印证了以往评估中的一些观点。

 (2)对于经过对齐或教学调整后的模型,高阶能力与模型大小之间的相关性显著增加(以KA为例,其Spearman系数为0.02->0.53)。这表明,排列组合能释放较大模型在较高层次能力方面的更大潜力。然而,模型规模与低层次知识能力之间的相关性却有所下降(0.34),这可能证明了人们广泛讨论的"对齐税"。

 (3)与GPT4、GPT-3.5-turbo和J2-Jumbo等商业闭源模型相比,开源模型的性能仍有明显差距。开源模型的平均Z值为-0.29,低于总体平均值。

三、HaluEval:面向大模型幻觉性评测方案

上面讨论的是基于知识图谱角度进行的大模型评估,而为了进一步研究大模型幻象的内容类型和大模型生成幻象的原因,《A Large-Scale Hallucination Evaluation Benchmark for Large Language Models》这一工作通过自动生成和手动标注的方式构建了大量的幻象数据组成HaluEval的数据集,其中包含特定于问答、对话、文本摘要任务的30000条样本以及普通用户查询的5000条样本。

论文地址:https://arxiv.org/abs/2305.11747 项目地址:https://github.com/RUCAIBox/HaluEval

我们同样也来关注其中关于评测数据方面的构造方法。

1、评测数据构造方法

在评测数据构造方面,其按照以下步骤通过ChatGPT执行数据生成流水线:

首先,下载HotpotQA、OpenDialKG和CNN/DailyMail的训练集。

其次,对10K个样本进行采样,并通过设置任务和采样策略生成幻觉对应样本。

主要受控制的参数包括:seed_data:下载的HotpotQA、OpenDialKG和CNN/DailyMail训练集;

task:采样任务,即QA、对话或摘要。

以及strategy:采样策略,包括单指令模式(one-pass instruction),直接将包含所有生成幻觉方法的完整的指令输入ChatGPT,然后得到生成的幻觉答案;对话式的指令(conversational instruction),每轮对话输入一种生成幻觉的方法,确保ChatGPT掌握了每一类方法,最后根据学到的指令生成给定问题的幻觉答案。

使用两种策略进行采样,每个问题可以得到两个候选的幻象答案。最后,从这两种取样方法中选出最可信、最难的幻觉样本。最终选出的样本将保存在数据目录中。

2、基于prompt的数据生成策略

为了在采样指令中给出条理的幻象生成方法,针对三类任务,将幻觉分为不同类型,并向模型输入各个类别幻象介绍作为生成幻觉样本的方法

对于问答任务,将幻觉分为comprehension、factualness、specificity和inference四种类型;

对于基于知识的问答任务,将幻象分为extrinsic-soft,、extrinsic-hard和 extrinsic-grouped三类

对于文本摘要任务,将幻象分为factual、non-factual和intrinsic三类。

考虑到生成的幻象样本可以有不同的类型,提出了两种采样方法来生成幻象。

整体生成策略,主要通过提示来控制,如下所示:

1)知识型对话幻觉采样提示

2)文本摘要幻觉采样提示

3)知识型对话幻觉过滤提示

4)文本摘要幻觉过滤提示

5)知识型对话幻觉识别提示

3、基于Yes /no的幻觉评估策略

针对以上构建好的数据,在评估时,随机抽取每个数据的真实标签或幻觉输出。例如,如果文本是一个幻觉答案,则LLM应识别出幻觉并输出"是",这表示文本包含幻觉。如果文本是真实答案,则LLM应输出"否",表示没有幻觉。

整个评估,也是通过prompt加以控制:

1)dialogue评测

I want you act as a response judge. Given a dialogue history and a response, your objective is to determine if the provided response contains non-factual or hallucinated information. You SHOULD give your judgement based on the following hallucination types and the world knowledge.

You are trying to determine if the true entity in the response is replaced with a highly similar entity.
#Dialogue History#: [Human]: Could you recommand movies similar to The Dark Knight? [Assistant]: The sequel to Batman Begins is The Dark Knight. [Human]: Okay. Who is the director of The Dark Knight and any other movies from him not related to Batman?
#Response#: Christopher Nolan was the director. He also directed insomnia and inception.
#Your Judgement#: No
#Dialogue History#: [Human]: Could you recommand movies similar to The Dark Knight? [Assistant]: The sequel to Batman Begins is The Dark Knight. [Human]: Okay. Who is the director of The Dark Knight and any other movies from him not related to Batman?
#Response#: Steven Spielberg was the director. He also directed insomnia and inception.
#Your Judgement#: Yes

You are trying to determine if the true entity in the response is replaced with a dissimilar entity.
#Dialogue History#: [Human]: Could you recommand movies similar to The Dark Knight? [Assistant]: The sequel to Batman Begins is The Dark Knight. [Human]: Okay. Who is the director of The Dark Knight and any other movies from him not related to Batman?
#Response#: Christopher Nolan was the director. He also directed insomnia and inception.
#Your Judgement#: No
#Dialogue History#: [Human]: Could you recommand movies similar to The Dark Knight? [Assistant]: The sequel to Batman Begins is The Dark Knight. [Human]: Okay. Who is the director of The Dark Knight and any other movies from him not related to Batman?
#Response#: Batman Begins was the director. He also directed insomnia and inception.
#Your Judgement#: Yes

You are trying to determine if the true entity in the response is replaced with a dissimilar entity in a different entity type.
#Dialogue History#: [Human]: Could you recommand movies similar to The Dark Knight? [Assistant]: The sequel to Batman Begins is The Dark Knight. [Human]: Okay. Who is the director of The Dark Knight and any other movies from him not related to Batman?
#Response#: Christopher Nolan was the director. He also directed insomnia and inception.
#Your Judgement#: No
#Dialogue History#: [Human]: Could you recommand movies similar to The Dark Knight? [Assistant]: The sequel to Batman Begins is The Dark Knight. [Human]: Okay. Who is the director of The Dark Knight and any other movies from him not related to Batman?
#Response#: United States of America was the director. He also directed insomnia and inception.
#Your Judgement#: Yes

You should try your best to determine if the response contains non-factual or hallucinated information according to the above hallucination types. The answer you give MUST be \"Yes\" or \"No\"".

2)qa_evaluation评测

提示:

I want you act as an answer judge. Given a question and an answer, your objective is to determine if the provided answer contains non-factual or hallucinated information. You SHOULD give your judgement based on the following hallucination types and the world knowledge.

You are trying to determine if the answer misunderstands the question context and intention.
#Question#: What is a rare breed of dog that was derived as a variant of Rat Terrier, Shiloh Shepherd dog or American Hairless Terrier?
#Answer#: American Hairless Terrier
#Your Judgement#: No

You are trying to determine if there is a factual contradiction between the answer and the world knowledge. Some information in the answer might be fabricated.
#Question#: Are the New Orleans Outfall Canals the same length as the Augusta Canal?
#Answer#: No, the New Orleans Outfall Canals and the Augusta Canal are not the same length. The Orleans Canal is approximately 3.6 miles (5.8 kilometers) long while the Augusta Canal is approximately 7 miles (11.3 kilometers) long.
#Your Judgement#: Yes
#Question#: What U.S Highway gives access to Zilpo Road, and is also known as Midland Trail?
#Answer#: U.S Highway 70
#Your Judgement#: Yes

You are trying to determine if the answer is too general or too specific to answer the question at an appropriate level of specificity.
#Question#: What genre do Superheaven and Oceansize belong to?
#Answer#: Superheaven and Oceansize belong to the rock genre.
#Your Judgement#: No
#Question#: What profession do Kōbō Abe and Agatha Christie share?
#Answer#: Playwright.
#Your Judgement#: No

You are trying to determine if the answer can be correctly inferred from the knowledge.
#Question#: Which band has more members, Muse or The Raconteurs?
#Answer#: Muse has more members than The Raconteurs.
#Your Judgement#: Yes
#Question#: Which is currently more valuable, Temagami-Lorrain Mine or Meadowbank Gold Mine?
#Answer#: Meadowbank Gold Mine, since Meadowbank Gold Mine is still producing gold and the TemagamiLorrain Mine has been inactive for years.
#Your Judgement#: No

You should try your best to determine if the answer contains non-factual or hallucinated information according to the above hallucination types. The answer you give MUST be \"Yes\" or \"No\"".

例子:

{
    "knowledge":"The Oberoi family is an Indian family that is famous for its involvement in hotels, namely through The Oberoi Group.The Oberoi Group is a hotel company with its head office in Delhi.",
    "question":"The Oberoi family is part of a hotel company that has a head office in what city?",
    "answer":"Delhi",
    "ground_truth":"No",
    "judgement":"No"
}

3)summarization评测

提示:

例子:

I want you act as a summary judge. Given a document and a summary, your objective is to determine if the provided summary contains non-factual or hallucinated information. You SHOULD give your judgement based on the following hallucination types and the world knowledge.

You are trying to determine if the summary is factual but some information cannot be directly inferred or entailed from the document.
#Document#: The panther chameleon was found on Monday by a dog walker in the wooded area at Marl Park. It had to be put down after X-rays showed all of its legs were broken and it had a deformed spine. RSPCA Cymru said it was an "extremely sad example of an abandoned and neglected exotic pet". Inspector Selina Chan said: "It is a possibility that the owners took on this animal but were unable to provide the care he needs and decided to release him to the wild. "We are urging potential owners of exotic animals to thoroughly research what is required in the care of the particular species before taking one on. "Potential owners need to make sure they can give their animal the environment it needs and they have the facilities, time, financial means and long-term commitment to maintain a good standard of care, as required under the Animal Welfare Act 2006." She added it was illegal to release non-native species into the wild.
#Summary#: A chameleon that was found in a Cardiff park has been put down after being abandoned and neglected by its owners.
#Your Judgement#: Yes

You are trying to determine if there exists some non-factual and incorrect information in the summary.  
#Document#: The city was brought to a standstill on 15 December last year when a gunman held 18 hostages for 17 hours. Family members of victims Tori Johnson and Katrina Dawson were in attendance. Images of the floral tributes that filled the city centre in the wake of the siege were projected on to the cafe and surrounding buildings in an emotional twilight ceremony. Prime Minister Malcolm Turnbull gave an address saying a "whole nation resolved to answer hatred with love". "Testament to the spirit of Australians is that with such unnecessary, thoughtless tragedy, an amazing birth of mateship, unity and love occurs. Proud to be Australian," he said. How the Sydney siege unfolded New South Wales Premier Mike Baird has also announced plans for a permanent memorial to be built into the pavement in Martin Place. Clear cubes containing flowers will be embedded into the concrete and will shine with specialised lighting. It is a project inspired by the massive floral tributes that were left in the days after the siege. "Something remarkable happened here. As a city we were drawn to Martin Place. We came in shock and in sorrow but every step we took was with purpose," he said on Tuesday.
#Summary#: Crowds have gathered in Sydney's Martin Place to honour the victims of the Lindt cafe siege, one year on.
#Your Judgement#: No

You are trying to determine if there is a factual contradiction between the summary and the document.
#Document#: Christopher Huxtable, 34, from Swansea, had been missing since the collapse in February. His body was found on Wednesday and workers who carried out the search formed a guard of honour as it was driven from the site in the early hours of the morning. Ken Cresswell, 57, and John Shaw, 61, both from Rotherham, remain missing. The body of a fourth man, Michael Collings, 53, from Brotton, Teesside, was previously recovered from the site. Swansea East MP Carolyn Harris, who has been involved with the family since the incident, said they still did not know all the facts about the collapse. She said: "I feel very sad. My heart and my prayers go out to the family who have waited desperately for Christopher's body to be found. They can finally have closure, and say goodbye to him and grieve his loss. "But let's not forget that there's two other families who are still waiting for their loved ones to be returned." The building was due for demolition when it partially collapsed in February.
#Summary#: The body of a man whose body was found at the site of the Swansea Bay Power Station collapse has been removed from the site.
#Your Judgement#: Yes

You should try your best to determine if the summary contains non-factual or hallucinated information according to the above hallucination types. The answer you give MUST be \"Yes\" or \"No\"".

总结

幻觉问题是个有趣的问题,本文主要从RefGPT提升事实性数据集的方法、面向知识图谱的大模型幻觉性评测:KoLA以及HaluEval幻觉性评测构成实现三个方面进行了介绍。

其中:

RefGPT提升事实性数据集的方法的意义在于,其最接近于我们进行行业问答落地的场景,但其构建中应该存在一些其他的样本,例如需要包括几种情况:检索知识(正相关)+LLM:答案、检索知识(不相关)+LLM:大模型自己生成答案、检索知识(不相关)+LLM:回复默认答案或者拒绝回答三种。

面向知识图谱的大模型幻觉性评测:KoLA的意义在于,给我们探索了一种利用知识图谱数据集及抽取任务来进行大模型评测的框架,其中的数据并未全部开源,但样本构造值得借鉴。

HaluEval幻觉性评测构成实现,借鉴意义在于,我们可以从中看到关于对话任务、问答任务以及摘要任务上数据的挖掘方法和评估prompt,这些都是prompt的范畴。

参考文献

1、https://arxiv.org/abs/2305.11747
2、https://arxiv.org/pdf/2306.09296.pdf
3、https://mp.weixin.qq.com/s/cuoO2V4X-GQOuWyA-e9BeQ
4、https://github.com/sufengniu/RefGPT

5、https://vectara.com

关于我们

老刘,刘焕勇,NLP开源爱好者与践行者,主页:https://liuhuanyong.github.io。

老刘说NLP,将定期发布语言资源、工程实践、技术总结等内容,欢迎关注。

对于想加入更优质的知识图谱、事件图谱、大模型AIGC实践、相关分享的,可关注公众号,在后台菜单栏中点击会员社区->会员入群加入。

​​​​​​