MolX: Enhancing Large Language Models for Molecular Learning with A Multi-Modal Extension

2024年06月10日
  • 简介
    最近,具有强大任务处理能力的大型语言模型(LLM)在各个领域取得了显著进展,超越了自然语言理解。然而,它们在化学领域的熟练程度仍然受限,特别是在解决专业分子相关任务方面。这一挑战归因于它们在仅使用常见文本表示形式(即SMILES字符串)来理解分子方面的固有限制。在本研究中,我们试图通过设计和配备一个多模态外部模块MolX来增强LLM理解分子的能力。具体而言,我们不直接使用SMILES字符串来表示分子,而是利用特定的编码器从SMILES字符串和2D分子图形表示中提取细粒度特征,以供LLM使用。此外,我们还引入了人工定义的分子指纹以利用其内嵌的领域知识。然后,为了在MolX和LLM的文本输入空间之间建立对齐,我们使用多样的任务集对整个模型进行预训练,其中LLM被冻结。广泛的实验评估表明,我们提出的方法只引入了少量可训练参数,同时在各种下游分子相关任务上表现优于基线,从分子到文本的翻译到反合成,无论是否对LLM进行微调。
  • 图表
  • 解决问题
    提高大型语言模型(LLMs)在化学领域中理解分子的能力,尤其是解决专业分子相关任务的能力。
  • 关键思路
    通过设计和装备一个多模态外部模块MolX,从SMILES字符串和2D分子图表示中提取细粒度特征,将人工定义的分子指纹纳入模型中,使用多任务预训练方法与LLM的文本输入空间建立对齐,从而提高LLMs理解分子的能力。
  • 其它亮点
    论文使用了MolX多模态外部模块,提取SMILES字符串和2D分子图表示的细粒度特征,并将人工定义的分子指纹纳入模型中,使用多任务预训练方法与LLM的文本输入空间建立对齐,实验结果表明该方法在各种下游分子相关任务上表现优异,且可微调。
  • 相关研究
    近年来,针对LLMs在化学领域中的应用,还有一些相关研究,如《Neural Message Passing for Quantum Chemistry》和《Graph Convolutional Policy Network for Goal-Directed Molecular Graph Generation》。
许愿开讲
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论