由北京智源人工智能研究院发起的“悟道”科研基金第一期于2021年9月1日至2021年9月30日对外开放申请,共收集到来自全国各个领域的研究员超过60个优质项目的申请,为了给予每个通过的项目充分的科研资金支持,第一期设置了项目数量的上限。经过9位不同领域专家历时一周的分组评审,初筛通过结果公示如下(非先后排名顺序):

 

申请项目名称

申请人姓名

学位

所在单位

基于预训练的短视频语义描述生成技术研究

聂礼强

博士

山东大学

基于多层级多视角限制的视觉表征预训练方法研究

苏冰

博士

中国人民大学

基于矩阵乘积算符方法的多模态预训练模型的轻量化微调策略

高泽峰

博士

中国人民大学

基于文澜预训练模型和增量式场景图匹配的视觉-语言导航算法研究

何军

博士

中国人民大学

面向多模态情感分析任务的鲁棒性特征表示学习预训练模型

徐 华

博士

清华大学计算机系

基于神经元相对抽象的预训练模型分布外样本检测方法

吴鹏

博士

中国科学院软件研究所

脑启发的元学习预训练及其在持续学习问题上的应用

秦云霄

博士

中国传媒大学脑科学与智能媒体研究院

基于大规模多模态预训练模型的细粒度视觉检索

魏秀参

博士

南京理工大学计算机科学与工程学院

连续域泛化技术

张磊

博士

重庆大学

基于预训练的PCB电路原理图自动布局技术研究

乔凯

博士

战略支援部队信息工程大学信息系统工程学院人工智能教研室

视觉模型的高效预训练方法研究

黄高

博士

清华大学

面向大规模预训练模型的自适应学习率优化方法

林通

博士

北京大学信息科学技术学院

基于预训练模型的稠密文本检索技术研究

赵鑫

博士

中国人民大学

基于张量分解技术的预训练模型压缩的研究

张鹏

博士

天津大学智能与计算学部

大规模预训练模型的优化理论研究

方聪

博士

北京大学信息科学技术学院

融合知识的增量式预训练语言模型构建及其可解释性

胡琳梅

博士

北京邮电大学

基于大规模预训练模型的知识产权关键技术研究

赵姝

博士

安徽大学计算机科学与技术学院

大规模多源知识图谱预训练模型与方法研究

胡伟

博士

南京大学

融合多类型多知识结构的预训练提示学习技术研究

郑海涛

博士

清华大学深圳国际研究生院

基于悟道预训练模型与知识融合的对话系统

严睿

博士

中国人民大学高瓴人工智能学院

融合因果知识的预训练语言模型

庞亮

博士

中国科学院计算技术研究所

热插拔高鲁棒的提示学习新范式研究

桂韬

博士

复旦大学

基于文本语义匹配的信息检索语言模型预训练方法

刘正皓

博士

东北大学

基于预训练技术的序列表示学习与应用

赵鑫

博士

中国人民大学

基于智源大规模中文预训练模型的复杂问题求解方法

程龚

博士

南京大学

面向分子图的预训练方法研究

兰艳艳

博士

清华大学智能产业研究院

预训练模型下的离散化表征研究

雷文强

博士

四川大学计算机(软件)学院

面向蛋白功能精确预测的大规模蛋白质预训练语言模型的构建与应用

朱山风

博士

复旦大学类脑智能科学与技术研究院

多语言预训练语言模型的研究

王瑞

博士

上海交通大学

面向信息检索的预训练模型研究

窦志成

博士

中国人民大学

基于预训练模型的文本生成技术研究

赵鑫

博士

中国人民大学

大规模中文搜索预训练基准数据集构建

谢晓晖

博士

清华大学

基于智源大规模中文预训练模型的语言生成模型和应用

李俊涛

博士

苏州大学

基于大规模预训练语言模型的高质量可控文本生成研究

孙茂松

博士

清华大学

情感支持的对话生成技术研究

宋丹丹

博士

北京理工大学

 

请各位通过初筛的申请人进行第二轮的答辩准备,答辩形式为线上,环节设置为8~10分钟PPT展示+3~5分钟提问,答辩时间将安排在近期,并通过短信的形式通知详情,请您留意查收,提前做好准备,等待进一步通知。如果您对评审结果或答辩环节有疑问,请在11月5日中午12:00前与我们联系。非常感谢各位申请人对我们一直以来的关注和认可,愿我们携手同行,在预训练领域共创辉煌成果!

 

联系人:

冷佳泓     手机/微信: 13210054814  jhleng@baai.ac.cn

李静云     手机/微信: 18511148268  jyli@baai.ac.cn

 

内容中包含的图片若涉及版权问题,请及时与我们联系删除