Uncertainty of interpretability in Landslide Susceptibility Mapping: A Comparative Analysis of Statistical, Machine Learning, and Deep Learning Models

2024年05月20日
  • 简介
    滑坡易发性制图(LSM)对于确定高风险区域和制定预防策略至关重要。本研究调查了统计学、机器学习(ML)和深度学习(DL)模型在预测滑坡易发性方面的可解释性。为了实现这一目标,本研究采用了各种相关的解释方法和两种类型的输入因素:一个包含19个与滑坡相关的统计学因素和一个专门的包含9个直接与滑坡触发相关的因素。鉴于模型性能是LSM中的一个关键指标,我们的可解释性研究自然涉及评估和比较不同模型下的LSM准确性。在我们的研究中,卷积神经网络模型实现了最高的准确性(19个因素时为0.8447;9个因素时为0.8048),而极端梯度提升和支持向量机也表现出强大的预测能力,优于传统的统计模型。这些发现表明,深度学习和复杂的机器学习算法可以有效地捕捉输入因素和滑坡发生之间的复杂关系。然而,不同模型的预测可解释性存在差异,特别是在使用更广泛的19个统计学因素时。SHAP、LIME和DeepLIFT等解释方法也导致解释结果的差异。使用一个包含19个贡献因素的综合性集合可以提高预测准确性,但引入了模型解释上的复杂性和不一致性。专注于一个专门的包含9个触发因素的集合虽然会牺牲一些预测能力,但增强了可解释性,如各种模型中一致性更强的关键因素和与现场调查报告的发现一致的结果所证明的。
  • 图表
  • 解决问题
    本论文旨在研究地质灾害中滑坡易发性预测模型的可解释性,比较统计学、机器学习和深度学习模型的预测能力和解释性。
  • 关键思路
    通过结合不同的解释方法和两种不同的输入因素(19个与滑坡相关的因素和9个直接与滑坡触发相关的因素),证明了深度学习和机器学习算法可以有效地捕捉输入因素和滑坡发生之间的复杂关系。
  • 其它亮点
    本文发现卷积神经网络模型在19个因素和9个因素的情况下表现最佳,而极端梯度提升和支持向量机也表现出很强的预测能力。解释方法如SHAP、LIME和DeepLIFT导致解释结果的差异。使用19个因素可以提高预测准确性,但引入了模型解释上的复杂性和不一致性。而专注于9个触发因素会牺牲一些预测能力,但会增强解释性。
  • 相关研究
    在最近的研究中,有其他学者也使用了深度学习和机器学习算法来预测滑坡易发性,例如“Landslide susceptibility mapping using deep learning and conventional machine learning algorithms: A comparative study”和“Landslide susceptibility mapping using a hybrid machine learning algorithm”等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论