当前位置: 首页 > news >正文

中国企业500强排行榜wordpress中文主程序优化

中国企业500强排行榜,wordpress中文主程序优化,网站用什么做内网穿透比较好,wordpress页面切换随着深度学习的发展#xff0c;越来越多的模型诞生#xff0c;并且在训练集和测试集上的表现甚至于高于人类#xff0c;但是深度学习一直被认为是一个黑盒模型#xff0c;我们通俗的认为#xff0c;经过训练后#xff0c;机器学习到了数据中的特征#xff0c;进而可以正…随着深度学习的发展越来越多的模型诞生并且在训练集和测试集上的表现甚至于高于人类但是深度学习一直被认为是一个黑盒模型我们通俗的认为经过训练后机器学习到了数据中的特征进而可以正确的预测结果但是对于机器到底学到了什么仍然是个黑盒模型我们迫切想要知道机器所学习到的特征这就需要对模型的可解释性进行研究。 本文主要介绍一下机器学习可解释性的相关内容与实现方法并回答以下问题。 什么是机器学习可解释性为什么要进行可解释性的研究Lime可解释性的原理Lime可解释性的代码实现 什么是机器学习可解释性 对于机器学习的用户而言模型的可解释性是一种较为主观的性质我们无法通过严谨的数学表达方法形式化定义可解释性。通常我们可以认为机器学习的可解释性刻画了“人类对模型决策或预测结果的理解程度”即用户可以更容易地理解解释性较高的模型做出的决策和预测。 从哲学的角度来说为了理解何为机器学习的可解释性我们需要回答以下几个问题首先我们应该如何定义对模型的“解释”怎样的解释才足够好许多学者认为要判断一个解释是否足够好取决于这个解释需要回答的问题是什么。对于机器学习任务而言我们最感兴趣的两类问题是“为什么会得到该结果”和“为什么结果应该是这样”。而理想状态下如果我们能够通过溯因推理的方式恢复出模型计算出输出结果的过程就可以实现较强的模型解释性。 实际上我们可以从“可解释性”和“完整性”这两个方面来衡量一种解释是否合理。“可解释性”旨在通过一种人类能够理解的方式描述系统的内部结构它与人类的认知、知识和偏见息息相关而“完整性”旨在通过一种精确的方式来描述系统的各个操作步骤例如剖析深度学习网络中的数学操作和参数。然而不幸的是我们很难同时实现很强的“可解释性”和“完整性”这是因为精确的解释术语往往对于人们来说晦涩难懂。同时仅仅使用人类能够理解的方式进行解释由往往会引入人类认知上的偏见。 此外我们还可以从更宏大的角度理解“可解释性人工智能”将其作为一个“人与智能体的交互”问题。如图 1所示人与智能体的交互涉及人工智能、社会科学、人机交互等领域。 为什么要进行可解释性的研究 在当下的深度学习浪潮中许多新发表的工作都声称自己可以在目标任务上取得良好的性能。尽管如此用户在诸如医疗、法律、金融等应用场景下仍然需要从更为详细和具象的角度理解得出结论的原因。为模型赋予较强的可解释性也有利于确保其公平性、隐私保护性能、鲁棒性说明输入到输出之间个状态的因果关系提升用户对产品的信任程度。下面我们从“完善深度学习模型”、“深度学习模型与人的关系”、“深度学习模型与社会的关系”3 个方面简介研究机器学习可解释性的意义。 1完善深度学习模型 大多数深度学习模型是由数据驱动的黑盒模型而这些模型本身成为了知识的来源模型能提取到怎样的知识在很大程度上依赖于模型的组织架构、对数据的表征方式对模型的可解释性可以显式地捕获这些知识。 尽管深度学习模型可以取得优异的性能但是由于我们难以对深度学习模型进行调试使其质量保证工作难以实现。对错误结果的解释可以为修复系统提供指导。 2深度学习模型与人的关系 在人与深度学习模型交互的过程中会形成经过组织的知识结构来为用户解释模型复杂的工作机制即「心理模型」。为了让用户得到更好的交互体验满足其好奇心就需要赋予模型较强的可解释性否则用户会感到沮丧失去对模型的信任和使用兴趣。 人们希望协调自身的知识结构要素之间的矛盾或不一致性。如果机器做出了与人的意愿有出入的决策用户则会试图解释这种差异。当机器的决策对人的生活影响越大时对于这种决策的解释就更为重要。 当模型的决策和预测结果对用户的生活会产生重要影响时对模型的可解释性与用户对模型的信任程度息息相关。例如对于医疗、自动驾驶等与人们的生命健康紧密相关的任务以及保险、金融、理财、法律等与用户财产安全相关的任务用户往往需要模型具有很强的可解释性才会谨慎地采用该模型。 3深度学习模型与社会的关系 由于深度学习高度依赖于训练数据而训练数据往往并不是无偏的会产生对于人种、性别、职业等因素的偏见。为了保证模型的公平性用户会要求深度学习模型具有检测偏见的功能能够通过对自身决策的解释说明其公平。 深度学习模型作为一种商品具有很强的社会交互属性具有强可解释性的模型也会具有较高的社会认可度会更容易被公众所接纳。 Lime可解释性的原理 LimeLocal Interpretable Model-Agnostic Explanations是使用训练的局部代理模型来对单个样本进行解释。假设对于需要解释的黑盒模型取关注的实例样本在其附近进行扰动生成新的样本点并得到黑盒模型的预测值使用新的数据集训练可解释的模型如线性回归、决策树得到对黑盒模型良好的局部近似。值得注意的是可解释性模型是黑盒模型的局部近似而不是全局近似。 实现步骤 如上图是一个非线性的复杂模型蓝/粉背景的交界为决策函数选取关注的样本点如图粗线的红色十字叉为关注的样本点X定义一个相似度计算方式以及要选取的K个特征来解释在该样本点周围进行扰动采样细线的红色十字叉按照它们到X的距离赋予样本权重用原模型对这些样本进行预测并训练一个线性模型虚线在X的附近对原模型近似。 其数学表示如下 对于实例x的解释模型g我们通过最小化损失函数来比较模型g和原模型f的近似性其中代表了解释模型g的模型复杂度G表示所有可能的解释模型例如我们想用线性模型解释则G表示所有的线性模型定义了x的邻域。我们通过最小化L使得模型f变得可解释。其中模型g邻域范围大小模型复杂度均需要定义。 对于结构化数据首先确定可解释性模型兴趣点x邻域的范围。LIME首先在全局进行采样然后对于所有采样点选出兴趣点x的邻域然后利用兴趣点的邻域范围拟合可解释性模型。如图。 其中背景灰色为负例背景蓝色为正例黄色为兴趣点小粒度黑色点为采样点大粒度黑点为邻域范围右下图为LIME的结果。 LIME的优点我们很容易就可以看到原理简单适用范围广可解释任何黑箱模型。 Lime可解释性的代码实现 算法流程 宏观来看 首先在待解释的模型中取一个待解释样本之后随机生成扰动样本并以与待解释样本的距离作为标准附加权重再将得到的结果作为输入投入待解释模型中同时选择在局部考察的待训练可解释模型如决策树、逻辑回归等等最终即可训练出在可解释特征维度上的可解释性模型。 微观来看 选取待解释样本X并转换为可解释特征维度上的样本X’。 通过随机扰动得到其余在可解释特征维度上的样本Z’。 将Z’恢复至原始维度计算fz与相似度。 利用自适应相似度对各个样本点进行加权。 以X’作为特征fz作为标准训练局部可解释模型如图虚线。 import sklearn import sklearn.datasets import sklearn.ensemble import numpy as np import lime import lime.lime_tabular #读取数据 x np.array(data[feats].fillna(-99999)) y np.array(data[target]) # 数据集划分 X_train, X_test, y_train, y_test train_test_split(x, y, test_size0.2, random_state 400) # 以XGBoost模型为例 model_xgb xgb.XGBClassifier(learning_rate 0.05,n_estimators50,max_depth3,min_child_weight1,gamma0.3,subsample0.8,colsample_bytree0.8,objective multi:softprob,nthread4,scale_pos_weight1,num_class2,seed27).fit(X_train, y_train) # 生成解释器 explainer lime.lime_tabular.LimeTabularExplainer(X_train, feature_namesfeats,class_names[0,1], discretize_continuousTrue) # 对局部点的解释 i np.random.randint(0, X_test.shape[0]) #参数解释 #image:待解释图像 #classifier_fn:分类器 #labels:可解析标签 #hide_color:隐藏颜色 #top_labels:预测概率最高的K个标签生成解释 #num_features:说明中出现的最大功能数 #num_samples:学习线性模型的邻域大小 #batch_size:批处理大小 #distance_metric:距离度量 #model_regressor:模型回归器默认为岭回归 #segmentation_fn:分段将图像分为多个大小 #random_seed:随机整数用作分割算法的随机种子 exp explainer.explain_instance(X_test[i], model_xgb.predict_proba, num_features6) # 显示详细信息图 exp.show_in_notebook(show_tableTrue, show_allTrue) # 显示权重图 exp.as_pyplot_figure()结果示例
http://www.w-s-a.com/news/4431/

相关文章:

  • 苏州和城乡建设局网站撸撸撸做最好的导航网站
  • 网站被同行抄袭怎么办深圳中装建设集团
  • 建站及推广瓦房店 网站建设
  • 怎么查网站是在哪里备案的广州电力建设有限公司网站
  • 做网站自己申请域名还是对方wordpress管理地址
  • 专门做二手书网站或appwordpress首页显示特定分类文章
  • 无锡网站设计厂家一建十个专业含金量排名
  • 网站刷链接怎么做成都高度网站技术建设公司
  • flash网站模板怎么用xml网站地图生成
  • 英文网站优化群晖wordpress中文
  • saas建站平台源码济南品牌网站建设公司
  • 网站建设一般是用哪个软件网站百度
  • 企业建站的作用是什么南宁公司网站开发
  • 厦门网站建设及维护门户网站开发视频教学
  • 可以做兼职的网站有哪些自动点击器永久免费版
  • 建购物网站怎么建呀网站怎么做中英文交互
  • 网站建设费用计入无形资产做网站用的主机
  • 佛山企业网站建设平台沈阳网站建设培训班
  • 河南企业网站优化外包网站怎么做来流量
  • 网站建设的参考文献网站设计网页的优缺点
  • WordPress多站點支付插件内江市网站建设培训
  • 做做网站已更新动漫制作专业需要学什么
  • dfv印花图案设计网站网站建设应该应聘什么岗位
  • 网站后台管理系统模板下载专业网站推广的公司哪家好
  • 克拉玛依市建设局网站网页设计板式重构
  • 网站新闻专题怎么做湖南营销型网站建设 要上磐石网络
  • 阿里云发布网站成都轨迹公布
  • php网站源码架构谷歌站群系统
  • 潮州网站seowordpress 调用置顶文章
  • 做带会员后台的网站用什么软件旅游网站建设资金请示