收集训练数据的方法论
1. IAP预测迁移性差
i) IAP(interatomic potential)模型形式越灵活,训练数据的选择就越关键。
鉴于模型需要充分采样和表征的特征空间(描述局部原子环境的空间)具有极高的维度。
ii) 用于表征局部环境的描述符的通用性,再加上用ML方法外推的固有挑战,通常会导致可迁移性差。
2. 两种方式解决这一挑战
i) 通过将更多物理特性注入ML架构,以限制预测或重现已知限制;
ii) 通过使用更大和更多样化的训练集来训练MLIAP,从而在训练数据的支持下找到MD模拟期间遇到的大多数原子环境。
iii) 在ii)的方式下,基于描述符分布的熵优化概念对训练集生成过程的改进,可以增加迁移性。
先进的算法
1. E(3) 等变图神经网络模型NequIP ,该模型在分子动力学模拟上,显示出出色的预测准确性、对未见阶段的泛化能力以及非常高的样本效率。
2. 量子机器学习模型(QMLM)以少量的数据训练展现出一定的泛化性
i) 量子卷积神经网络对相变中的量子态进行分类只需要非常小的训练数据集。
ii) 其它潜在应用包括学习量子纠错码或量子动力学模拟。
评估化学性质
1. 使用机器学习(machine learning, ML)评估化学性质(如部分原子电荷、偶极矩、自旋和电子密度以及化学键合),观察到的趋势表明,该领域正在向基于ML增强的物理模型发展。
2. 预测ML原子间势的算法的发展,通过绕过量子力学(QM)方法,使得大规模分子动力学研究能够以几乎和经典力场一样低的计算成本进行,而不会牺牲量子力学的准确性。
3. ML建立有效且准确的替代模型以映射不同变量(理论和实验)的能量迅速使其成为一种非常适合揭示化学结构-性质关系的方法。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢