- 简介有效整合分子图结构与大语言模型(LLM)是药物发现领域的一个关键挑战。目前大多数多模态对齐方法通常通过微调LLM或同时添加静态适配器来处理这些结构。然而,这些方法存在两个主要局限性:(1)它们在所有分子输入上优化共享的参数空间,限制了模型捕捉实例特定结构特征的能力;(2)针对分子任务微调LLM可能导致灾难性遗忘,损害其通用推理能力。本文提出一种不同于静态任务导向适应的方法,即为每个分子动态生成实例特定的参数空间对齐。为此,我们引入了分子感知的低秩适应方法(MoRA),该方法为每个输入的分子图生成一组独特的低秩适应权重。这些权重随后被动态注入到一个冻结的LLM中,使模型能够根据每个分子输入的结构调整其推理过程,同时保留LLM的核心知识。大量实验表明,在化学反应预测和分子描述生成等关键分子任务上,MoRA的实例特定动态适应性能优于静态适配的基线方法,其中反应预测的精确匹配率相对提升了14.1%,量子性质预测的误差减少了22%。代码可在 https://github.com/jk-sounds/MoRA 获取。
-
- 图表
- 解决问题如何有效将分子图结构与大语言模型(LLM)进行多模态对齐,是药物发现中的关键挑战。现有方法通常通过微调LLM或添加静态适配器来实现,但存在两个主要问题:一是使用共享参数空间处理所有分子输入,难以捕捉实例特定的结构特征;二是微调LLM容易导致灾难性遗忘,损害其通用推理能力。该问题在当前多模态AI+科学领域日益重要,但尚未被充分解决,具有较强的新颖性和实际需求。
- 关键思路提出了一种实例特定的动态参数对齐方法——分子感知低秩适应(MoRA),为每个输入分子图生成一组独特的低秩适配权重,并将其动态注入冻结的LLM中。核心创新在于摒弃静态、任务级适配,转而实现分子级别的动态适配,在不更新LLM参数的前提下,使模型能根据每个分子结构自适应调整推理过程,兼顾了专用性与通用性的平衡。
- 其它亮点在化学反应预测和分子描述生成等关键任务上,MoRA显著优于静态适配基线:反应预测精确匹配率相对提升14.1%,量子性质预测误差降低22%。实验设计严谨,覆盖多个标准分子数据集(如USPTO、QM9等),验证了方法的泛化能力。代码已开源(https://github.com/jk-sounds/MoRA),具备良好可复现性。值得深入的方向包括扩展至更多药物属性预测任务、探索更高效的动态权重生成机制,以及与其他科学推理框架结合。
- 1. Aligning Language Models to Molecules with Structural Awareness 2. AdapterHub: A Framework for Adapting Transformers 3. LoRA: Low-Rank Adaptation of Large Language Models 4. MolT5: Scaling Molecular Representation Learning with Pretraining and Finetuning 5. GraphPrompt: Towards Graph Structure-aware Prompt Tuning for Molecular Property Prediction
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流