

💙 大语言模型的“幻觉”问题具体指什么?它如何影响模型在特定领域的应用?
💙 数据对大语言模型的影响力有多大?能否用数据驱动的方法完全规避风险?
💙 如何平衡大语言模型的创新潜力与其潜在的风险?未来的大语言模型发展趋势会是怎样?


以大语言模型为代表的生成式AI发展迅速,除了基座模型的性能不断提升,垂直领域模型的理念也被不断提出。本报告主要关注大语言模型的内容安全(security & safety),首先讲述了大语言模型时代对人工智能安全问题的重新梳理。其次,本报告还从大语言模型风险内容的例子出发讲述对大语言模型从数据驱动的角度进行的思考,并探讨大语言模型的“幻觉”问题成为制约其垂直领域落地的关键挑战。最后,在针对生成式人工智能治理政策亟需的背景下,讲述大语言模型的内容安全的潜在风险与挑战。

邱寒,清华大学网络研究院助理教授、博导。研究方向为机器学习安全,成果发表于安全与AI领域顶会顶刊,包括Oakland、USENIX Security、TDSC、TPAMI、ICLR、CVPR、ICCV、ECCV等,作为项目骨干参与国家重点研发计划,主持自然科学基金青年项目、CCF-蚂蚁金服科研基金等多个科研项目,获3次国际学术会议最佳论文奖、2022年IEEE智能计算专委会数据安全青年研究奖、2023年IEEE可扩展计算专委会早期职业成就奖、入选2023年年度斯坦福大学全球前2%顶尖科学家。







关注公众号发现更多干货❤️



内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢