本期热点讨论




💙 大语言模型的“幻觉”问题具体指什么?它如何影响模型在特定领域的应用?

💙 数据对大语言模型的影响力有多大?能否用数据驱动的方法完全规避风险?

💙 如何平衡大语言模型的创新潜力与其潜在的风险?未来的大语言模型发展趋势会是怎样?


下周四(5月16日)19:00《追AI的人》系列直播第39期邀请了清华大学网络研究院助理教授邱寒分享《大语言模型的内容安全,其潜在的风险与挑战》。

直播详情

直播主题:大语言模型的内容安全,其潜在的风险与挑战
直播时间: 2024年5月16日(周四)19:00
直播地点: 微信搜索“阿里巴巴AI治理中心”视频号,B站搜“AAIG课代表”。

议题简介


以大语言模型为代表的生成式AI发展迅速,除了基座模型的性能不断提升,垂直领域模型的理念也被不断提出。本报告主要关注大语言模型的内容安全(security & safety),首先讲述了大语言模型时代对人工智能安全问题的重新梳理。其次,本报告还从大语言模型风险内容的例子出发讲述对大语言模型从数据驱动的角度进行的思考,并探讨大语言模型的“幻觉”问题成为制约其垂直领域落地的关键挑战。最后,在针对生成式人工智能治理政策亟需的背景下,讲述大语言模型的内容安全的潜在风险与挑战


💛【课程大纲】:
1、大语言模型安全:从旧问题到新问题
2. 数据驱动的角度看待大语言模型
3. 大语言模型内容安全风险与挑战
4. 总结与展望

讲师简介
邱 寒

邱寒,清华大学网络研究院助理教授、博导。研究方向为机器学习安全,成果发表于安全与AI领域顶会顶刊,包括Oakland、USENIX Security、TDSC、TPAMI、ICLR、CVPR、ICCV、ECCV等,作为项目骨干参与国家重点研发计划,主持自然科学基金青年项目、CCF-蚂蚁金服科研基金等多个科研项目,获3次国际学术会议最佳论文奖、2022年IEEE智能计算专委会数据安全青年研究奖、2023年IEEE可扩展计算专委会早期职业成就奖、入选2023年年度斯坦福大学全球前2%顶尖科学家。


追AI的人是什么?

追AI的人》系列直播是一档由阿里巴巴人工智能治理与可持续发展研究中心(AAIG)联合高校和产业界发起的AI治理交互栏目。重点关注并分享人工智能新技术、AI治理新观点、可持续发展新风向。目前联合高校、律所等多家单位举办了38期直播,吸引全国超100万人次实时观看。


 下周四晚19:00!
《追AI的人》第39期直播
不见不散!



📌往期推荐




👇AAIG课代表,获取最新动态就找她

 关注公众号发现更多干货❤️


内容中包含的图片若涉及版权问题,请及时与我们联系删除