如何解释AI做出的决策?一文梳理算法应用场景和可解释性
- 2022-04-16 08:10:00
- 刘大牛 转自文章
- 228
本文结合《Explanation decisions made with AI》指南,重点对算法的应用场景和可解释性分析进行了梳理总结。
算法类型 |
可能的应用 |
解释 |
线性回归 (LR) |
在金融(如信用评分)和医疗保健(根据生活方式和现有的健康状况预测疾病风险)等高度监管的行业中具有优势,因为它的计算和监督都比较简单。 |
由于线性和单调性,具有较高的可解释性。随着特征数量的增加(即高维度),可解释性会变差。 |
逻辑 回归 |
像 线性回归 一样,在高度管制和安全关键部门有优势,特别是在基于 分类问题 的用例中,如对风险、信用或疾病的是/否决策。 |
良好的可解释性,但不如LR,因为特征是通过 逻辑 函数转换的,与概率结果的关系是对数,而不是相加。 |
正则化 回归(LASSO和Ridge) |
与 线性回归 一样,在要求结果可理解、可获得和透明的高度监管和安全关键部门中具有优势。 |
由于通过更好的 特征选择 程序改善了模型的稀疏性,因此具有高度的可解释性。 |
广义线性模型 (GLM) |
适用于目标变量具有需要指数族分布集的约束条件的用例(例如,如果目标变量涉及人数、时间单位或结果的概率,则结果必须具有非负值。) |
良好的可解释性水平,跟踪了LR的优点,同时也引入了更多的灵活性。因为其链接功能,确定特征的重要性可能不如用加性特征简单的LR那么直接,一定程度上失去了透明度。 |
广义加性模型(GAM) |
适用于预测变量和响应变量之间的关系不是线性的(即输入-输出关系在不同时间以不同速度变化),但需要最佳可解释性的用例。 |
良好的可解释性,因为即使在存在非线性关系的情况下,GAM也可以用图形清晰地表示预测变量对响应变量的影响。 |
决策树 |
由于产生DT结果的分步 逻辑 对非技术用户来说很容易理解(取决于节点/特征的数量),这种方法可用于需要透明度的高风险和安全关键的决策支持情况,以及相关特征数量相当少的许多其他用例。 |
如果DT保持相当小的规模,那么可解释的程度就很高,这样就可以从头到尾跟踪 逻辑 。与LR相比,DT的优势在于前者可以适应非线性和变量交互,同时保持可解释性。 |
规则/决定清单和集 |
与DT一样,由于产生规则列表和规则集的 逻辑 对非技术用户来说很容易理解,这种方法可用于需要透明度的高风险和安全关键的决策支持情况,以及其他许多需要明确和完全透明地说明结果的用例。 |
规则列表和规则集是所有最佳性能和不透明的算法技术中具有最高程度的可解释性之一。然而,它们也与DT有相同的可能性,即当规则列表变长或规则集变大时,可理解的程度就会消失。 |
基于案例的推理(CBR)/原型和批评 |
CBR适用于任何基于经验的领域。推理用于决策的任何领域。例如,在医学上,当以前类似案例的成功经验指向决策者建议的治疗方法时,就会在CBR的基础上推荐。CBR扩展到原型和批评的方法意味着更好地促进对复杂数据分布的理解,以及增加 数据挖掘 的洞察力、可操作性和可解释性。 |
CBR是可以通过设计来解释的。它使用从可解释的设计中提取的例子。它使用从人类知识中提取的例子,以便将输入的特征吸收到人类可识别的表征中。它通过稀疏的特征和熟悉的原型保留了模型的可解释性。 |
超稀疏线性整数模型(SLIM) |
SLIM已被用于需要快速、简化而又最准确的临床决策的医疗应用中。一个被称为风险校准SLIM(RiskSLIM)的版本已被应用于刑事司法领域,表明其稀疏线性方法对生态犯罪的预测与目前使用的一些不透明模型一样有效。 |
由于其稀疏和易理解的特点,SLIM为以人为中心的决策支持提供了最佳的可解释性。作为一个手动完成的评分系统,它还确保了实施它的引导员-用户的积极参与。 |
Naïve Bayes |
虽然这种技术由于不现实的特征独立性假设而被认为是naive的,但众所周知它是非常有效的。它的快速计算时间和可扩展性使其适合于高维特征空间的应用。 |
Naive Bayes分类器具有高度的可解释性,因为每个特征的类成员概率是独立计算的。然而,假设独立变量的条件概率在统计上是独立的,这也是一个弱点,因为没有考虑特征的相互作用。 |
K近邻(KNN) |
KNN是一种简单、直观、多功能的技术,应用广泛,但对较小的数据集效果最好。由于它是非 参数 性的(对基础数据分布不做任何假设),它对非线性数据很有效,同时不失可解释性。常见的应用包括 推荐系统 、图像识别、客户评级和排序。 |
KNN的工作假设是,通过查看它们所依赖的数据点与产生类似类别和结果的数据点的接近程度,可以预测类别或结果。这种关于近似性/接近性的重要性的直觉是对所有KNN结果的解释。当特征空间保持小的时候,这样的解释更有说服力,所以实例之间的相似性仍然是可以得到的。 |
SVM |
SVM对于复杂的分类任务来说是非常通用的。它们可以用来检测图像中物体的存在(有脸/无脸;有猫/无猫),对文本类型进行分类(体育文章/艺术文章),以及识别生物信息学中感兴趣的基因。 |
可解释性水平低,取决于维度特征空间。在上下文确定的情况下,使用SVM应辅以辅助解释工具。 |
ANN |
ANN最适合于完成高维特征空间的各种分类和预测任务,即有非常大的输入向量的情况。它们的用途可能包括 计算机视觉 、图像识别、销售和天气预报、药品发现和股票预测、 机器翻译 、疾病诊断和欺诈检测。 |
由于曲线(极端非线性)的倾向和输入变量的高维度,导致ANN非常低的可解释性。ANN被认为是 "黑盒 "技术的缩影。在适当的情况下,应当引入解释工具辅助ANN的使用。 |
随机森林 |
随机森林 经常被用来有效地提高单个决策树的性能,改善其错误率,并减轻 过拟合 。它们在基因组医学等高维问题领域非常流行,也被广泛用于计算 语言学 、计量经济学和预测性风险建模。 |
由于在bagged数据和随机特征上训练这些决策树群的方法、特定森林中的树木数量以及单个树木可能有数百甚至数千个节点的可能性,可能导致 随机森林 方法非常低的可解释性。 |
集合方法 |
集合方法有广泛的应用,跟踪其组成学习者模型的潜在用途(包括DT、KNN、 随机森林 、NaiveBayes,等等)。 |
集合方法的可解释性因使用何种方法而不同。例如,使用bagging技术的模型,即把在随机数据子集上训练的学习者的多个估计值平均起来,其原理可能难以解释。对这些技术的解释需求应该结合其组成学习者的情况分别考虑。 |
RETAIN[2]:用于分析 EHR 数据以预测病人未来出现心力衰竭的风险。RETAIN 受 注意力机制 启发,通过使用一个两层的神经注意力模型,并对 EHR 数据进行逆序输入系统,模拟医生满足病人需求及分析病人记录时专注于病人过去诊疗记录中某些特殊临床信息、风险因素的过程,在保证预测结果准确性(Accuracy)的同时确保了结果的可解释性(interpretability)。
SHAP[3]:来自于 博弈论 原理,SHAP(SHapley Additive exPlanations)为特征分配特定的预测重要性值,作为特征重要性的统一度量,能够解释现代 机器学习 中大多数的黑盒模型,为 机器学习 模型 量化 各个特征的贡献度。给定当前的一组特征值,特征值对实际预测值与平均预测值之差的贡献就是估计的 Shapley 值。
由来自世界各地的专业分析师为你解读前沿进展,技术热点和经典论文。我们的分析师团队由来自于各大名校的硕士和博士,以及一线研究机构的研究员组成。
联系人: | 透明七彩巨人 |
---|---|
Email: | weok168@gmail.com |