每天 0 点更新数据,热度根据全网互动数计算
最热 · 今天
最新
The AI Review Lottery: Widespread AI-Assisted Peer Reviews Boost Paper Scores and Acceptance Rates
Giuseppe Russo Latona,
Manoel Horta Ribeiro,
Tim R. Davidson,
...
2024年05月03日
学术期刊和会议担心人工智能(AI),特别是大型语言模型(LLM)辅助的同行评审可能会对同行评审系统的有效性和公正性产生负面影响,而同行评审是现代科学的基石。本研究通过对2024年国际学习表示会议(ICLR)这个大型、有声望的机器学习会议的背景下AI辅助同行评审的流行程度和影响进行了准实验研究,以解决这一担忧。我们的贡献有三个方面。首先,我们使用GPTZero LLM检测器获得了ICLR 2024中AI辅助评审的最低普及率,估计至少有15.8%的评审是由AI辅助撰写的。其次,我们估计了AI辅助评审对提交评分的影响。考虑到对同一篇论文分配不同评分的评审对,我们发现在53.4%的对中,AI辅助评审的评分比人工评审更高($p=0.002$;评分更高的概率相对差异:AI辅助评审的优势为+14.4%)。第三,我们评估了接受AI辅助同行评审对提交接受率的影响。在一项匹配研究中,接近接受门槛的提交,如果接受了AI辅助同行评审,则比没有接受的提交更有可能被接受,差别为4.9个百分点($p=0.024$)。总体而言,我们展示了AI辅助评审对同行评审过程的重要性,并就当前趋势的未来影响进行了讨论。
73
热度
Symbolic
PDF
解读
Are Models Biased on Text without Gender-related Language?
Catarina G Belém,
Preethi Seshadri,
Yasaman Razeghi,
...
2024年05月01日
性别偏见研究在揭示大型语言模型中的不良行为方面起到了关键作用,揭示了与职业和情感相关的严重性别刻板印象。先前的研究中的一个关键观察是,模型会强化刻板印象,因为训练数据中存在性别相关的相关性。在本文中,我们关注的是训练数据效果不明显的偏见,并回答以下问题:即使在非刻板印象的情况下,语言模型仍然表现出性别偏见吗?为此,我们引入了UnStereoEval(USE),这是一个专门用于研究无刻板印象情境下性别偏见的新框架。USE基于预训练数据统计定义了一个句子级得分,以确定该句子是否包含最少的词性别关联。为了在无性别相关语言的情况下系统地评估流行的语言模型的公正性,我们利用USE自动生成基准测试。通过利用USE的句子级得分,我们还将先前的性别偏见基准(Winobias和Winogender)用于非刻板印象评估。令人惊讶的是,我们发现所有28个测试模型的公平性都很低。具体而言,在无刻板印象的句子中,模型仅表现出公平行为的比例为9%-41%,这表明偏见不仅仅源于性别相关的词语。这些结果引发了关于模型基础偏见来自何处的重要问题,并强调了需要更系统和全面的偏见评估。我们在https://ucinlp.github.io/unstereo-eval上发布了完整的数据集和代码。
NLP
AI
CV
PDF
解读