导语


内容简介
内容简介
分享内容大纲
分享内容大纲
大模型价值观对齐的研究现况
BaseAlign算法:在基本价值空间中实现大模型对齐
基本价值观空间搭建 基本价值观数据集构建 BaseAlign对齐算法介绍
主要涉及到的前置知识
主要涉及到的前置知识
大模型价值对齐
施瓦茨人类基本价值理论
主讲人介绍
主讲人介绍

姚菁,微软亚洲研究院社会计算组(MSRA, Social Computing Group)研究员。感兴趣从跨学科的角度出发来讨论大模型价值观对齐的目标和方法。在SIGIR, WWW, CIKM 等顶尖国际会议发表过多篇文章。
圆桌嘉宾介绍
圆桌嘉宾介绍

主持人介绍
主持人介绍

涉及到的参考文献
涉及到的参考文献
From Instruction to Basic Human Values: A Survey of Alignment Goals for Big Models https://arxiv.org/pdf/2308.12014.pdf
On the Essence and Prospect: An Investigation of Alignment Approachhttps://arxiv.org/pdf/2403.04204.pdf
Value FULCRA:Mapping Large Language Models to the Multidimensional Spectrum of Basic Human Values https://arxiv.org/pdf/2311.10766.pdf
直播信息
直播信息

报名成为主讲人
报名成为主讲人
大模型安全与对齐读书会
大模型的狂飙突进唤醒了人们对AI技术的热情和憧憬,也引发了对AI技术本身存在的社会伦理风险及其对人类生存构成的潜在威胁的普遍担忧。在此背景下,AI安全与对齐得到广泛关注,这是一个致力于让AI造福人类,避免AI模型失控或被滥用而导致灾难性后果的研究方向。集智俱乐部和安远AI联合举办「大模型安全与对齐」读书会,由多位海内外一线研究者联合发起,旨在深入探讨大模型安全与对齐所涉及的核心技术、理论架构、解决路径以及安全治理等交叉课题。


点击“阅读原文”,报名读书会
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢