电子发烧友App

硬声App

0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

电子发烧友网>人工智能>机器学习模型可解释性的结果分析

机器学习模型可解释性的结果分析

收藏

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

评论

查看更多

相关推荐

机器学习模型评估指标

机器学习模型指标在机器学习建模过程中,针对不同的问题,需采用不同的模型评估指标。
2023-09-06 12:51:50109

机器学习算法汇总 机器学习算法分类 机器学习算法模型

机器学习算法汇总 机器学习算法分类 机器学习算法模型 机器学习是人工智能的分支之一,它通过分析和识别数据模式,学习从中提取规律,并用于未来的决策和预测。在机器学习中,算法是最基本的组成部分之一。算法
2023-08-17 16:11:48217

最新综述!当大型语言模型(LLM)遇上知识图谱:两大技术优势互补

LLM 是黑箱模型,缺乏可解释性,因此备受批评。LLM 通过参数隐含地表示知识。因此,我们难以解释和验证 LLM 获得的知识。此外,LLM 是通过概率模型执行推理,而这是一个非决断的过程。对于 LLM 用以得出预测结果和决策的具体模式和功能,人类难以直接获得详情和解释
2023-07-10 11:35:00694

基于Transformer的大型语言模型(LLM)的内部机制

本文旨在更好地理解基于 Transformer 的大型语言模型(LLM)的内部机制,以提高它们的可靠可解释性。 随着大型语言模型(LLM)在使用和部署方面的不断增加,打开黑箱并了解它们的内部
2023-06-25 15:08:49426

机器学习中使用的5种常见数据结构和算法

使用数据结构和算法,您的代码可以提高机器学习系统的速度、可伸缩可解释性。选择的最佳设计将取决于主要问题的精确要求。每种设计都有一定的优势和用途。
2023-06-14 09:35:20306

为k近邻机器翻译领域自适应构建可解释知识库

为了找到NMT模型的潜在缺陷,构建更加可解释的知识库,我们提出以局部准确这一新概念作为分析角度。其中,局部准确又包含两个子概念:条目准确(entry correctness)和邻域准确(neighborhood correctness)。
2023-06-13 15:25:19211

CAM与Grad-CAM++可视化CNN方式的代码实现和对比

当使用神经网络时,我们可以通过它的准确来评估模型的性能,但是当涉及到计算机视觉问题时,不仅要有最好的准确,还要有可解释性和对哪些特征/数据点有助于做出决策的理解。模型专注于正确的特征比模型的准确更重要。
2023-06-09 16:53:54384

可信人工智能研究方向与算法探索

为了建立可信、可控、安全的人工智能,学术界与工业界致力于增强人工智能系统与算法的可解释性。具体地,可信人工智能旨在增强人工智能系统在知识表征、表达能力、优化与学习能力等方面的可解释性与可量化性以及增强人工智能算法内在机理的可解释性
2023-05-24 10:02:16141

你是什么时候对深度学习失去信心的?

这就使得,原本深度学习被诟病可解释性问题,其实不再是问题。因为从业务顶层已经被拆分,拆分成一个个可以被人理解的因子,无法被合理解释的因子,项目启动的评审都无法通过。
2023-05-19 10:09:40147

文献综述:确保人工智能可解释性和可信度的来源记录

本文对数据起源、可解释AI(XAI)和可信赖AI(TAI)进行系统的文献综述,以解释基本概念,说明数据起源文件可以用来提升基于人工智能系统实现可解释性。此外,文中还讨论了这个领域近期的发展模式,并对未来的研究进行展望。
2023-04-28 15:55:48583

如何评估机器学习模型的性能?机器学习的算法选择

如何评估机器学习模型的性能?典型的回答可能是:首先,将训练数据馈送给学习算法以学习一个模型。第二,预测测试集的标签。第三,计算模型对测试集的预测准确率。
2023-04-04 14:15:19298

LeCun新作:全面综述下一代「增强语言模型

最近图灵奖得主Yann LeCun参与撰写了一篇关于「增强语言模型」的综述,回顾了语言模型与推理技能和使用工具的能力相结合的工作,并得出结论,这个新的研究方向有可能解决传统语言模型的局限性,如可解释性、一致和可扩展性问题。
2023-03-03 11:03:20494

可以提高机器学习模型可解释性技术

本文介绍目前常见的几种可以提高机器学习模型可解释性的技术,包括它们的相对优点和缺点。
2023-02-08 14:08:52590

机器学习模型可解释性算法汇总!

目前很多机器学习模型可以做出非常好的预测,但是它们并不能很好地解释他们是如何进行预测的,很多数据科学家都很难知晓为什么该算法会得到这样的预测结果。这是非常致命的,因为如果我们无法知道某个算法是如何进行预测,那么我们将很难将其前一道其它的问题中,很难进行算法的debug。
2023-02-03 11:34:06779

[转]物联网和机器学习究竟有哪些真实应用价值?

需要确定几十个传感器的输入与迅速产生数百万个数据点的外部因素之间的相关。  传统的数据分析需要基于历史数据和专家意见的模型来建立变量之间的关系,而机器学习结果(比如节能)出发,自动寻找预测变量及其
2017-04-19 11:01:42

医学图像处理:从形成到解释

图像形成过程由数据采集和图像重建步骤组成,为数学逆问题提供了解决方案。图像计算的目的是提高重建图像的可解释性,并从中提取临床相关信息。最后,图像管理处理采集的图像和衍生信息的压缩、存档、检索和通信。
2022-12-22 14:35:03715

自动驾驶芯片行业趋势

一是自动驾驶高度依赖不具备可解释性的深度学习神经网络,不具备可解释性就意味着无法真正迭代升级。公认自动驾驶技术霸主的Waymo研发自动驾驶已经14年,但近10年来都没有取得显著进展原因就是如此。
2022-12-21 11:44:10551

使用TensorBoard的机器学习模型分析

机器学习正在突飞猛进地发展,新的神经网络模型定期出现。这些模型针对特定数据集进行了训练,并经过了准确和处理速度的证明。开发人员需要评估 ML 模型,并确保它在部署之前满足预期的特定阈值和功能。有
2022-12-06 14:35:10257

使用TensorBoard的机器学习模型分析

  这些模型针对特定数据集进行了训练,并经过了准确和处理速度的证明。开发人员需要评估 ML 模型,并确保它在部署之前满足预期的特定阈值和功能。有很多实验可以提高模型性能,在设计和训练模型时,可视化
2022-11-22 16:30:51217

机器学习模型的集成方法总结:Bagging, Boosting, Stacking, Voting, Blending

个数据集(用于训练模型)和一个算法(从数据学习)。但是有些模型的准确通常很低产生的结果也不太准确,克服这个问题的最简单的解决方案之一是在机器学习模型上使用集成学习
2022-10-19 11:29:21242

基于深度学习可解释特征准确预测混凝土抗压强度

基于深度学习可解释特征准确预测混凝土抗压强度 Accurate prediction of concrete compressive strength based on explainable
2022-09-06 09:35:53544

AI模型的演变与可解释性

人工智能正在改变几乎所有行业和应用领域的工程。随之而来的是对高 AI 模型准确的需求。事实上,AI 模型在取代传统方法时往往更准确,但这有时也会付出代价:复杂的 AI 模型是如何做出决策的;作为工程师,我们如何验证结果是否如预期那样有效?
2022-09-01 13:06:051362

使用机器学习方法来预测模拟了二维二氧化硅玻璃的失效

在此,研究者通过机器学习方法分析了二维石英玻璃的结构和失效行为,并说明了如何在保持结果的定性可解释性的情况下实现准确的失效预测。这要归功于梯度加权类激活映射(Gradient-weighted Class Activation Mapping, Grad-CAM)的使用
2022-08-18 16:22:26628

人工智能可解释性规制面临的问题分析

在实践中,人工智能的规模化应用推广,在很大程度上依赖于用户能否充分理解、合理信任并且有效管理人工智能这一新型伙伴。为此,确保人工智能产品、服务和系统具有透明(Transparency)与可解释性(Explainability)是至关重要的。
2022-08-09 10:04:01839

可解释机器学习

可解释机器学习
2022-06-17 14:41:051

InterpretML机器学习可解释性

./oschina_soft/interpret.zip
2022-06-16 09:51:541

使用RAPIDS加速实现SHAP的模型可解释性

  模型解释性 帮助开发人员和其他利益相关者理解模型特征和决策的根本原因,从而使流程更加透明。能够解释模型可以帮助数据科学家解释他们的模型做出决策的原因,为模型增加价值和信任。在本文中,我们将讨论:
2022-04-21 09:25:561404

使用可解释机器学习构建多样化投资组合

  对形状值进行聚类的想法基于 EU Horizon 项目FIN-TECH中最成功的 AI 用例,发布为可解释机器学习在信用风险管理中的应用。它
2022-04-07 09:20:481115

人工智能的透明度和可解释性义务

  SHAP 聚类提供了机器学习模型的局部、全局和组级决策的解释。这里提供的扩展允许对解释进行进一步分析。这允许从业者为基于机器学习的决策构建一个叙述和解释,以满足业务、监管和客户需求。
2022-04-07 09:12:231857

如何检查相互竞争的模型并通过GPU获得成功

  在本文中,我们将演示如何检查相互竞争的模型(称为 challenger models ),并使用 GPU 加速,通过简单、经济高效且可理解的模型可解释性应用程序获得成功。当 GPU 加速在模型开发过程中被多次使用时,建模者的时间将通过在数十次模型迭代中摊销培训时间和降低成本而得到更有效的利用。
2022-04-06 17:33:41841

关于机器学习模型的六大可解释性技术

本文介绍目前常见的几种可以提高机器学习模型可解释性的技术。
2022-02-26 17:20:191491

机器学习模型可解释性算法详解

本文介绍目前常见的几种可以提高机器学习模型可解释性的技术,包括它们的相对优点和缺点。
2022-02-16 16:21:313624

《计算机研究与发展》—机器学习可解释性

伴随着模型复杂度的增加,机器学习算法的可解释性越差,至今,机器学习可解释性依旧是个难题.通过算法训练出的模型被看作成黑盒子,严重阻碍了机器学习在某些特定领域的使用,譬如医学、金融等领域.目前针对机器学习可解释性
2022-01-25 08:35:36573

探究对深度学习模型VAE的时序解耦

的主要原因之一,尤其是对于关键任务应用程序。 因此,“黑匣子”的解体已成为机器学习研究人员的一个重大开放问题,并且是该领域当前感兴趣的问题之一,这一研究领域通常被称为机器学习架构的“可解释性”。在本文中,我们将讨论
2021-06-04 11:10:443939

机器学习模型在功耗分析攻击中的研究

不同的数据集的十折交叉验证结果进行模型选择,提高测试公平及测试结果的泛化能力。为避免十折交叉验证过程中出现测试集误差不足以近似泛化误差的问题,采用 Fried man检验及 Nemeny后续检验相结合的方法对4种机器学习算法进行评估
2021-06-03 15:53:585

可判别肺结节良恶性的多分支CNN模型

,以及这些知识是如何影响决策的,导致诊断结果缺乏可信。为此,文中提出了一种可解释的多分支卷积神经网络模型来判别肺结节的良恶性。该模型利用医生诊断时所用的肺结节语义特征信息来辅助诊断肺结节的良恶性,并将这些特征
2021-05-07 13:51:0111

基于迁移学习的驾驶分心行为识别模型

为了提高驾驶分心识别的应用及识别模型可解释性,利用迁移学习方法硏究构建驾驶人驾驶分心行为识别模型并采用神经网络可视化技术硏究对模型进行解释。以ⅤGσ-6模型为基础,对原模型全连接层进行修改以适应
2021-04-30 13:46:5110

面向联邦学习的分布式与隐私安全综述

设计。传统的可视化任务需要使用大量的数据,而联邦学习的隐私决定了其无法获取用户数据。因此,可用的数据主要来自服务器端的训练过程,包括服务器端模型参数和用户训练状态。基于对联邦学习可解释性的挑战的分析,文
2021-04-29 11:13:593

基于机器学习算法的水文趋势预测方法

针对传统的利用神经网络等工具进行水文趋势预测得出结果不具备解释性等不足,文中提出一种基于机器学习算法的水文趋势预测方法,该方法旨在利用 XGBOOST机器学习算法建立参照期与水文预见期之间各水文特征
2021-04-26 15:39:306

一个机器学习系统的需求建模与决策选择

,用户信任通常取决于包含可解释性、公平等非功能需求在内的综合需求的满足程度,且在不同领域内应用机器学习通常有特定的需求,为保证需求描述的质量及实施过程的决策带来了挑战。为解决以上问题,文中提岀了一个机器学习
2021-04-23 10:36:483

图神经网络的解释性综述

:https://arxiv.org/pdf/2012.15445.pdf 参考文献 0.Abstract近年来,深度学习模型可解释性研究在图像和文本领域取得了显著进展
2021-04-09 11:42:062276

GNN解释技术的总结和分析与图神经网络的解释性综述

图神经网络的可解释性是目前比较值得探索的方向,今天解读的2021最新综述,其针对近期提出的 GNN 解释技术进行了系统的总结和分析,归纳对比了该问题的解决思路。
2021-03-27 11:45:325161

一种拥有较好可解释性的启发式多分类集成算法

安全得到重视,传统融合策略可解释性差的冋题凸显。夲文基于心理学中的知识线记忆理论进行建模参考人类决策过程,提出了一种拥有较好可解释性的启发式多分类器集成算法,称为知识线集成算法。该算法模拟人类学习与推断的
2021-03-24 11:41:3313

综述深度神经网络的解释方法及发展趋势

、医药、交通等髙风险决策领域对深度神经网络可解释性提岀的强烈要求,对卷积神经网络、循环神经网绛生成对抗网络等典型网络的解释方法进行分析梳理,总结并比较现有的解释方法,同时结合目前深度神经网络的发展趋势,对其
2021-03-21 09:48:2318

一种融合知识图谱和协同过滤的混合推荐模型

针对现有协同过滤推荐算法可解释性不高和基于内容推荐信息提取困难、推荐效率低等问题,提岀一种融合知识图谱和协同过滤的混合推荐模型,其由知识图谱与深度学习结合模型RCKD和知识图谱与协同过滤结合模型
2021-03-16 14:37:4310

基于注意力机制的深度兴趣网络点击率模型

和自适应激活函数,根据用户历史行为和给定广告自适应地学习用户兴趣。引人注意力机制,区分不同特征对预测结果的影响程度,从而增强模型可解释性。在3个公开数据集上的实验结果表明,相对LR、PNN等CTR预估模型,ADIN模型具有更高的AUC值和更
2021-03-12 10:55:115

基于MASK模型的视频问答机制设计方案

与问题文本特征进行3种注意力加权,利用MASK屏蔽与问题无关的答案,从而增强模型可解释性。实验结果表明,该模型在视频问答任务中的准确率达到61%,与ⅤQA+、SA+等视频问答模型相比,其具有更快的预测速度以及更好的预测效果。
2021-03-11 11:43:282

机器学习中的几种数据偏差

机器学习中的数据偏差是一种错误,其中数据集的某些元素比其他元素具有更大的权重和或表示。有偏见的数据集不能准确地表示模型的用例,从而导致结果偏斜,准确水平低和分析错误。 通常,用于机器学习项目的训练
2021-01-05 17:54:452265

浅谈机器学习模型可解释性和透明

对于机器学习模型来说,我们常常会提到2个概念:模型准确(accuracy)和模型复杂度(complexity)。
2021-01-05 14:02:282538

用于解释神经网络的方法是如何发展的?

深度学习)进行图像识别的最大挑战之一,是难以理解为什么一个特定的输入图像会产生它所预测的结果。 ML模型的用户通常想了解图像的哪些部分是预测中的重要因素。这些说明或“解释”之所以有价值,有很多原因: 机器学习开发人员可以分析调试模型的解
2020-12-23 10:23:091167

机器学习模型可解释性的介绍

模型可解释性方面的研究,在近两年的科研会议上成为关注热点,因为大家不仅仅满足于模型的效果,更对模型效果的原因产生更多的思考,这...
2020-12-10 20:19:43350

医学图像分割中的置信度进行量化

在过去的十年里,深度学习在一系列的应用中取得了巨大的成功。然而,为了验证和可解释性,我们不仅需要模型做出的预测,还需要知道它在...
2020-12-08 22:14:02196

集成模型的原理及创建集成模型的方法

集成学习是功能强大的机器学习技术之一。集成学习通过使用多种机器学习模型来提高预测结果的可靠和准确。但是,使用多种机器学习模型如何使预测结果更准确?可以采用什么样的技术创建整体学习模型?以下将探讨解答这些问题,并研究使用集成模型的基本原理以及创建集成模型的主要方法。
2020-11-11 11:13:024423

如何通过XGBoost解释机器学习

本文为大家介绍用XGBoost解释机器学习。 这是一个故事,关于错误地解释机器学习模型的危险以及正确解释所带来的价值。如果你发现梯度提升或随机森林之类的集成树模型具有很稳定的准确率,但还是需要对其
2020-10-12 11:48:481425

dotData宣布dotData企业2.0版本的发布

AutoML中准确可解释性的自动平衡 -除了追求最高准确模型外,还使过程自动化,以最小的准确变化探索更简单的ML模型。这使用户可以根据他们的业务需求来平衡准确可解释性
2020-09-11 10:32:041001

人工智能算法的可解释性方法研究

以深度学习为代表的人工智能技术在信息领域的应用,极大地提高了信息的利用效率和挖掘价值,深刻的影响了各领域的业务形态,同时也引发了监管部门和用户对这一新技术运用中出现的 “算法黑箱”问题关切和疑虑。如何对相关算法、模型、及其给出的结果进行合理的解释成为数据科学家亟需解决的问题
2020-07-15 17:28:111122

详谈机器学习的决策树模型

决策树模型是白盒模型的一种,其预测结果可以由人来解释。我们把机器学习模型的这一特性称为可解释性,但并不是所有的机器学习模型都具有可解释性
2020-07-06 09:49:062823

人工智能科技的发展将指引智能网联汽车未来的发展方向

针对人工智能安全问题,他提出四大对策。第一方面对策是可解释性,即我们了解或者解决一件事情的时候,可以获得我们所需要的足够可以理解的信息。比如说过去算法是黑盒算法,缺乏透明可解释性,一旦发生问题,难以分析和验证到底问题出处。
2020-07-04 13:00:202651

什么是“可解释的”? 可解释性AI不能解释什么

通过建立既可解释又准确的模型来改良这种错误的二分法。关键是将神经网络与决策树相结合,在使用神经网络进行低级决策时保留高级的可解释性
2020-05-31 10:51:447664

试图解构AI思维逻辑台大徐宏民力赞可信任的AI

 一般来说,效能(正确率)与可解释性呈现负相关的关系,也就是说,可解释性越高,效能就越差;效能越高,可解释性就越低。
2020-05-17 09:49:08571

利用SHAP实现机器学习模型的输出预测

我最喜欢的库之一是SHAP,它是解释机器学习模型生成的输出不可或缺的工具。 SHAP是几种不同的当前解释模型的顶点,并且通过为每个特征分配重要值来表示用于解释模型预测的统一框架。反过来,可以绘制这些重要值,并用于产生任何人都可以轻易解释的漂亮可视化。
2020-05-04 18:09:006781

机器学习模型评估的11个指标

建立机器学习模型的想法是基于一个建设的反馈原则。你构建一个模型,从指标中获得反馈,进行改进,直到达到理想的精度为止。评估指标解释模型的性能。评估指标的一个重要方面是它们区分模型结果的能力。
2020-05-04 10:04:002641

2020年AI如何发展?

今年秋天,Facebook发布了带有量化和TPU支持的PyTorch 1.3,以及深度学习可解释性工具Captum和PyTorch Mobile。还有诸如PyRobot和PyTorch Hub之类的东西,用于共享代码并鼓励机器学习(ML)实践者实现可重复性。
2020-04-15 16:40:001629

一项关于可解释人工智能规划(XAIP)的工作调查

可解释AI(X AI)近年来一直是一个积极的研究课题,受到DARPA2016年倡议的推动。 计算机视觉和自然语言处理等“感知”问题的机器学习的广泛采用,导致了分类器的可解释性技术的发展,包括LIME和AllenNLP解释技术。
2020-04-03 14:57:482396

深度神经网络的实现机理与决策逻辑难以理解

人工智能系统所面临的两大安全问题的根源在于深度神经网络的不可解释性。深度神经网络可解释性定义为可判读(interpretability)和可理解(explainability)两方面的内容。可判读,即深度神经网络输出可判读
2020-03-27 15:56:182425

Explainable AI旨在提高机器学习模型可解释性

Google Cloud AI战略总监Tracy Frey在 今天的博客中解释说,Explainable AI旨在提高机器学习模型可解释性。她说,这项新服务的工作原理是量化每个数据因素对模型产生的结果的贡献,帮助用户了解其做出决定的原因。
2020-03-24 15:14:212481

什么是可解释的人工智能,它的定义如何

可解释的人工智能意味着人类可以理解IT系统做出决定的路径。人们可以通过分解这个概念来探究人工智能如此重要的原因。
2020-01-30 08:50:006168

谷歌AI服务阐明了机器学习模型如何做出决策

Google LLC已在其云平台上推出了一项新的“可解释AI”服务,旨在使机器学习模型做出决策的过程更加透明。
2019-11-30 11:06:51807

联想集团携人工智能技术和解决方案亮相2019年The AI Summit

“因此,可解释性机器学习,特别是深度学习是一个很大的挑战。只有人类理解了AI的决策过程,才能将其应用在更广泛的社会场景中。”徐飞玉表示。
2019-09-27 11:24:012068

第三代AI要处理“可解释性”问题

语言是人类智能的重要标志,在人类文明中的地位与作用毋庸置疑,自然语言处理,通俗地解释就是“让计算机学习人类语言”。
2019-08-15 09:41:462405

深度理解神经网络黑盒子:可验证可解释性

虽然神经网络在近年来 AI 领域取得的成就中发挥了关键作用,但它们依旧只是有限可解释性的黑盒函数近似器。
2019-08-15 09:17:3412180

深度学习全新打开方式Google Brain提出概念激活向量新方法

最近,Google Brain团队的研究人员发表了一篇论文,提出了一种名为概念激活向量(Concept Activation Vectors, CAV)的新方法,它为深度学习模型可解释性提供了一个新的视角。
2019-07-31 14:11:462534

神经网络可解释性研究的重要日益凸显

神经网络的可解释性,从经验主义到数学建模
2019-06-27 10:54:204751

人工数学建模和机器学习的优缺点进行介绍和比较

我主要研究医疗和金融领域的模型应用,在这些领域的实际问题中,上述模型能够在很大程度上解决模型解释性、人工数据生成和零样本学习问题。因此在下面的实验中,我使用 beta-VAEs 模型对心电图(ETC)数据和和比特币(BTC)的价格数据进行了分析。该实验的代码在 Github上可以找到。
2019-05-08 09:59:169490

最新医学图像处理技术:从形成到解释

图像形成过程包括数据采集和图像重建步骤,为数学逆问题提供解决方案。图像计算的目的是改善重建图像的可解释性并从中提取临床相关信息。
2019-04-15 16:29:096442

探讨一些可用于解释机器学习模型的不同技术

下图则阐述了在需要清晰简单的模型可解释性时,通常首选白盒模型 (具有线性和单调函数) 的原因。图的上半部显示,随着年龄的增长,购买数量会增加,模型的响应函数在全局范围内具有线性和单调关系,易于解释模型
2019-04-04 17:30:232309

机器学习模型不再是”黑盒子“

有时你可以只凭借关于底层主题的直觉来完成这个过程。但是,当模型有100个原始特征或缺乏有关您正在处理的主题的背景知识时,就需要更多指引了。这时候,如果模型仍是黑盒子,不可解释的,完成这一过程可能会非常困难,甚至是不可能的。
2019-03-12 09:31:334422

2018年,机器学习和人工智能领域最重要的突破是什么?

正如Xavier Amatriain说的那样,深度学习的寒冬不会到来——这项技术已经用到产业里并带来了收益,现实让人们收起了一部分对AI的期望和恐惧,业界开始思考数据的公平模型可解释性等更本质的问题。
2018-12-26 08:59:523479

深度学习可解释性推理方向上的进展

所以网络学习特征向量,和未见分类一起保存于可微记忆块之中。这一表示不断发展,给了神经网络学习“如何快速学习”的能力,这正是我们将其称为元学习的原因。就这样,神经网络的行为开始变得更像人类了。人类联系
2018-11-10 10:07:554632

机器学习模型的“可解释性”的概念及其重要意义

如果考察某些类型的“事后可解释性”(post-hoc interpretable),深度神经网络具有明显的优势。深度神经网络能够学习丰富的表示,这些表示能够可视化、用语言表达或用于聚类。如果考虑对可解释性的需求,似乎线性模型在研究自然世界上的表现更好,但这似乎没有理论上的原因。
2018-07-24 09:58:2019037

用浅显的语言带领大家了解可解释性的概念与方法

广义上的可解释性指在我们需要了解或解决一件事情的时候,我们可以获得我们所需要的足够的可以理解的信息。
2018-06-25 10:21:115188

对于模型和数据的可视化及可解释性的研究方法进行回顾

多伦多大学的Sanja Fidler进行讲解,主要讲解了计算机视觉深度学习机器人(以及自动驾驶)方面的发展、应用和新的研究机会。
2018-06-21 18:09:545591

深度学习时代的新主宰:可微编程

深度学习自诞生之日起,即面临着黑盒智能、可解释性差等质疑, 发展至今,不可否认地带来了一波人工智能的发展热潮,然而正面临研究热情渐褪、算法红利逐渐消失等问题,整个学术界都在讨论,后深度学习时代,谁将是主宰。
2018-06-08 11:51:254305

关于红外检测技术的解释性论文

关于红外检测技术的解释性论文
2018-05-21 11:15:582

机器学习可解释性为何如此重要?

而对于自底向上的模式,将商业模型中的一部分委派给机器学习,甚至从机器学习中得到全新的商业想法。自底向上的数据科学一般与手工劳作的自动化过程相关。例如制造业公司可将传感器放置在设备上收集数据并预测其
2018-04-11 15:48:0412831

斯坦福探索深度神经网络可解释性 决策树是关键

深度学习的热潮还在不断涌动,神经网络再次成为业界人士特别关注的问题,AI 的未来大有可期,而深度学习正在影响我们的日常生活。近日斯坦福大学给我们分享咯一则他对深度神经网络可解释性的探索的论文,我们去看看他是如理解的吧!
2018-01-10 16:06:303765

机器学习的十种经典算法详解

逻辑回归模型是一种强大的统计建模方式,它用一个或多个解释性变量对二值输出结果建模。它用逻辑斯蒂函数估计概率值,以此衡量分类依赖变量和一个或多个独立的变量之间的关系,这属于累积的逻辑斯蒂分布。
2017-12-06 09:20:119610

机器学习模型注入持久

需要被保存和评估的ML模型。 在所有的这些例子中,如果有了模型的持久,那么保存和加载模型的问题将变得更容易解决。在即将到来的2.0版本中,通过基于DataFrame的API,Spark机器学习库MLlib将实现几乎完整的ML持久支持。本文将提前透露有关代码示例
2017-10-10 14:27:150

异构信息网络构建的推荐系统新算法研究

1) 非常完美地将各种side information融入到一个统一的模型; 2)利用meta-path,可以设计出各种各样的推荐策略,除了推荐准确提升之外,还能提供「可解释性」。
2017-10-10 11:47:092581

中心化模糊系统CTSK的分析及应用

从一个新角度重新探讨TSK模糊系统建模问题,引入并分析推导一种新的TSK模糊系统——CTSK。与传统TSK模糊系统相比,CTSK模糊系统具有良好的可解释性、更好的鲁棒和较强的逼近能
2009-04-09 09:04:1520

已全部加载完成