理解背后的力学黑盒机器学习模型预测
可解释性是机器学习算法的程度可以被人类所理解。机器学习模型通常被称为“黑盒”,因为他们的知识的表示不直观,因此,往往很难理解它们是如何工作的。可解释性技术帮助揭示黑盒机器学习模型做出预测。
通过揭示各种特性如何贡献(或不贡献)预测,可解释性的技术可以帮助您验证预测模型是使用适当的证据,并找到偏见在您的模型中,没有明显的在训练。一些机器学习模型,如线性回归、决策树和生成添加剂模型本质上是解释。然而,可解释性常常是以牺牲的力量和准确性。
可解释性和explainability是密切相关的。可解释性更常用于机器学习(经典)的背景下,而在深层神经网络的背景下,许多使用“AI explainability。”
应用可解释性
从业者寻找模型解释能力有三个主要原因:
- 调试:理解,或者为什么预言出错并运行“假设”场景可以提高模型的鲁棒性和消除偏见。
- 指南:黑盒模型可能违反公司技术最佳实践和个人偏好
- 规定:一些政府法规要求可解释性等敏感的应用程序在金融、公共卫生和交通
模型解释能力解决这些问题,提高信任模型在解释的情况下的预测是重要的或要求的监管。
可解释性通常应用在两个层面:
- 全球的方法:概述最具影响力的变量在模型中基于输入数据和预期输出
- 当地的方法:提供一个解释,一个单一的预测结果
图2说明了可解释性的本地和全球范围的区别。还可以解释能力应用于组内数据,得出的结论在集团层面,比如为什么一群制造产品归类为错误的。s manbetx 845
受欢迎的当地的可解释性的技术包括当地可判断的Model-Agnostic解释(石灰)和沙普利值。排名为全球可解释性,许多从特性(或重要性)和视觉部分情节的依赖。你可以使用MATLAB应用这些技术®。
在MATLAB中使用可解释性的技术
使用MATLAB对机器学习,您可以应用技术来解释最受欢迎的机器学习模型,本质上可以高度准确但不解释。
当地可判断的Model-Agnostic解释:这种方法涉及到在附近近似一个复杂的模型预测感兴趣的要用一个简单的解释模型,如线性模型或决策树。然后,您可以使用更简单的模型作为代理解释最初的(复杂)模型是如何工作的。图3说明了应用石灰的三个主要步骤。
部分依赖(PDP)和个人条件期望(ICE)情节:
通过这些方法,你检查一个或两个因素的影响对整个模型的平均预测的输出值在所有可能的功能。图4显示了生成部分依赖情节与MATLAB函数plotPartialDependence。
严格地说,部分依赖情节就表明,一定范围内预测的价值与特定的预测可能;这是不足以建立一个因果关系预测价值和预测。然而,如果当地的可解释性方法像石灰表明预测显著影响了预测(在一个感兴趣的领域),你可以到达一个解释为什么一个模型表现当地的某种方式。
沙普利值:这种技术有助于解释了每个指标的分析计算,预测的预测偏差的平均的兴趣。这种方法在金融行业尤其受欢迎,因为它来源于博弈理论作为其理论基础,因为它满足提供完整的监管要求
解释:夏普利值之和所有功能对应的总偏差预测的平均水平。的MATLAB函数沙普利计算夏普利值查询感兴趣的点。
图5显示了在预测心脏心律失常在感兴趣的样品,MFCC4有强烈的积极影响预测“异常”,而MFCC11和5靠预测,即。,对一个“正常”的心。
评估所有的组合特性通常需要很长时间。因此,沙普利值通常通过应用蒙特卡罗模拟在实践中。
预测估计重要性排列:MATLAB还支持交换预测万博1manbetx随机森林的重要性。这种方法需要预测的影响变化值对模型预测误差的预测的重要性。缓步的值预测功能测试或训练数据,并观察结果误差变化的大小。
选择一个可解释性的方法
图6提供了固有的可辩解的机器学习的概述,各种(model-agnostic)可解释性方法,指导如何应用它们。
不同的可解释性方法有自己的局限性。一个最佳实践是意识到这些限制你适合这些算法的各种用例。可解释性工具帮助你理解为什么一个机器学习模型预测它。这些方法可能会变得越来越相关监管和专业机构继续努力证明AI的框架对于敏感的应用程序,如自主运输和药物。