- 简介随着计算效率高的人工智能技术及其在我们日常生活中的广泛应用,有必要通过更详细的解释来理解黑盒子人工智能技术的计算细节,例如最流行的机器学习和深度学习技术。可解释人工智能(xAI)的起源正是由于这些挑战,最近研究人员通过全面将可解释性加入传统人工智能系统来更加关注它。这导致开发适当的框架,以便在创新、风险缓解、伦理问题和对用户的逻辑价值方面成功应用xAI于现实生活场景。在本书章节中,提供了对几种xAI框架和方法的深入分析,包括LIME(局部可解释的模型无关解释)和SHAP(Shapley加性解释)。使用随机森林分类器作为黑盒子人工智能在公开的糖尿病症状数据集上进行LIME和SHAP以获得更好的解释。所得结果在糖尿病疾病预测的透明度、有效性和可信度方面非常有趣。
-
- 图表
- 解决问题解释性人工智能(xAI)的发展和应用
- 关键思路通过LIME和SHAP等xAI框架和方法,提高黑匣子AI的可解释性
- 其它亮点使用随机森林分类器和公开的糖尿病症状数据集进行实验,结果表明xAI可以提高糖尿病预测的透明度、有效性和可信度
- 相关论文:1. 'A survey of methods for explaining black box models',作者:R. Guidotti等,机构:University of Pisa;2. 'Explainable AI: A survey',作者:M. Arrieta等,机构:University of Pampas;3. 'Interpretable machine learning: A review of methods and applications',作者:V. Doshi-Velez等,机构:Harvard University。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流