当前位置: 首页 > news >正文

网站建设所用系统网站推广含义

网站建设所用系统,网站推广含义,徐汇网站设计,wordpress 付费可见决策树是属于有监督机器学习的一种决策树算法实操: from sklearn.tree import DecisionTreeClassifier # 决策树算法 model DecisionTreeClassifier(criterionentropy,max_depthd) model.fit(X_train,y_train)1、决策树概述 决策树是属于有监督机器学习的一种#xff0c;起源… 决策树是属于有监督机器学习的一种决策树算法实操: from sklearn.tree import DecisionTreeClassifier # 决策树算法 model DecisionTreeClassifier(criterionentropy,max_depthd) model.fit(X_train,y_train)1、决策树概述 决策树是属于有监督机器学习的一种起源非常早符合直觉并且非常直观模仿人类做决策的过程早期人工智能模型中有很多应用现在更多的是使用基于决策树的一些集成学习的算法。这一章我们把决策树算法理解透彻了非常有利于后面去学习集成学习。 1.1、示例一 上表根据历史数据记录已有的用户是否可以偿还债务以及相关的信息。通过该数据构建的决策树如下 1.2、决策树算法特点 可以处理 非线性的问题 可解释性强没有方程系数 模型简单模型预测效率高 if else 2、DecisionTreeClassifier使用 2.1、算例介绍 账号是否真实跟属性日志密度、好友密度、是否使用真实头像有关系~ 2.2、构建决策树并可视化 数据创建 import numpy as np import pandas as pd y np.array(list(NYYYYYNYYN)) print(y) X pd.DataFrame({日志密度:list(sslmlmmlms),好友密度:list(slmmmlsmss),真实头像:list(NYYYYNYYYY),真实用户:y}) 数据调整 X[日志密度] X[日志密度].map({s:0,m:1,l:2}) X[好友密度] X[好友密度].map({s:0,m:1,l:2}) X[真实头像] X[真实头像].map({N:0,Y:1}) X[真实用户] X[真实用户].map({N:0,Y:1}) 模型训练可视化 import matplotlib.pyplot as plt from sklearn import tree # 使用信息熵作为分裂标准 model DecisionTreeClassifier(criterionentropy) model.fit(X,y) plt.rcParams[font.family] STKaiti plt.figure(figsize(12,16)) fn X.columns _ tree.plot_tree(model,filled True,feature_namesfn) plt.savefig(./iris.jpg) 2.3、信息熵 构建好一颗树数据变的有顺序了构建前一堆数据杂乱无章构建一颗整整齐齐顺序用什么度量衡表示数据是否有顺序信息熵 。 物理学热力学第二定律熵描述的是封闭系统的混乱程度 。 2.4、信息增益 信息增益是知道了某个条件后事件的不确定性下降的程度。写作 g(X,Y)。它的计算方式为熵减去条件熵如下: ​​ 表示的是知道了某个条件后原来事件不确定性降低的幅度。 2.5、手动计算实现决策树分类 s X[真实用户] p s.value_counts()/s.size (p * np.log2(1/p)).sum() # 0.8812908992306926 x X[日志密度].unique() x.sort() # 如何划分呢分成两部分 for i in range(len(x) - 1):split x[i:i2].mean()cond X[日志密度] split# 概率分布p cond.value_counts()/cond.size# 按照条件划分两边的概率分布情况indexs p.indexentropy 0for index in indexs:user X[cond index][真实用户]p_user user.value_counts()/user.sizeentropy (p_user * np.log2(1/p_user)).sum() * p[index]print(split,entropy) columns [日志密度,好友密度,真实头像] lower_entropy 1 condition {} for col in columns:x X[col].unique()x.sort()print(x)# 如何划分呢分成两部分for i in range(len(x) - 1):split x[i:i2].mean()cond X[col] split# 概率分布p cond.value_counts()/cond.size# 按照条件划分两边的概率分布情况indexs p.indexentropy 0for index in indexs:user X[cond index][真实用户]p_user user.value_counts()/user.sizeentropy (p_user * np.log2(1/p_user)).sum() * p[index]print(col,split,entropy)if entropy lower_entropy:condition.clear()lower_entropy entropycondition[col] split print(最佳列分条件是,condition) 3、决策树分裂指标 常用的分裂条件时 信息增益 Gini系数 信息增益率 MSE回归问题 3.1、信息熵ID3 在信息论里熵叫作信息量即熵是对不确定性的度量。从控制论的角度来看应叫不确定性。信息论的创始人香农在其著作《通信的数学理论》中提出了建立在概率统计模型上的信息度量。 对应公式: 3.2、Gini系数CART 基尼系数是指国际上通用的、用以衡量一个国家或地区居民收入差距的常用指标。 基尼系数最大为“1”最小等于“0”。基尼系数越接近 0 表明收入分配越是趋向平等。国际惯例把 0.2 以下视为收入绝对平均0.2-0.3 视为收入比较平均0.3-0.4 视为收入相对合理0.4-0.5 视为收入差距较大当基尼系数达到 0.5 以上时则表示收入悬殊。 3.3、MSE 用于回归树后面章节具体介绍 4、鸢尾花分类代码实战 4.1、决策树分类鸢尾花数据集 import numpy as np from sklearn.tree import DecisionTreeClassifier from sklearn import datasets from sklearn.model_selection import train_test_split from sklearn import tree import matplotlib.pyplot as pltX,y datasets.load_iris(return_X_yTrue)# 随机拆分 X_train,X_test,y_train,y_test train_test_split(X,y,random_state 256)# max_depth调整树深度剪枝操作 # max_depth默认深度最大延伸到将数据完全划分开为止。 model DecisionTreeClassifier(max_depthNone,criterionentropy) model.fit(X_train,y_train) y_ model.predict(X_test) print(真实类别是,y_test) print(算法预测是,y_) print(准确率是,model.score(X_test,y_test)) # 决策树提供了predict_proba这个方法发现这个方法返回值要么是0要么是1 model.predict_proba(X_test) 4.2、决策树可视化 import graphviz from sklearn import tree from sklearn import datasets # 导出数据 iris datasets.load_iris(return_X_yFalse) dot_data tree.export_graphviz(model,feature_namesfn,class_namesiris[target_names],# 类别名filledTrue, # 填充颜色roundedTrue,) graph graphviz.Source(dot_data) graph.render(iris) 4.3、选择合适的超参数并可视化   import numpy as np from sklearn.tree import DecisionTreeClassifier from sklearn import datasets from sklearn.model_selection import train_test_split from sklearn import tree import matplotlib.pyplot as pltX,y datasets.load_iris(return_X_yTrue)# 随机拆分 X_train,X_test,y_train,y_test train_test_split(X,y,random_state 256) depth np.arange(1,16) err [] for d in depth:model DecisionTreeClassifier(criterionentropy,max_depthd)model.fit(X_train,y_train)score model.score(X_test,y_test)err.append(1 - score)print(错误率为%0.3f%% % (100 * (1 - score))) plt.rcParams[font.family] STKaiti plt.plot(depth,err,ro-) plt.xlabel(决策树深度,fontsize 18) plt.ylabel(错误率,fontsize 18) plt.title(筛选合适决策树深度) plt.grid() plt.savefig(./14-筛选超参数.png,dpi 200)
http://www.w-s-a.com/news/662379/

相关文章:

  • 单位网站等级保护必须做吗广州app软件开发公司
  • 免费flash网站模板怎么仿网站链接
  • 泉州网站建设哪家好平面设计转行做什么比较好
  • 忘记网站备案账号设计一个网站
  • 国内购物网站哪个最好海珠营销网站建设报价
  • 小型网站搭建logo免费制作
  • dede 网站模板哈尔滨房产信息网官方网站
  • 设计师个人作品集模板班级优化大师网页版登录
  • 高端网站建设教学网站开发前期准备工作
  • 网站评论列表模板设计官网的
  • 怎么做可以访问网站ui设计自学学的出来吗
  • 网站如何接入支付宝软件开发工作内容描述
  • 廊坊网站建设搭建整合营销传播的效果表现为
  • 网站服务器在本地是指园林绿化
  • 公司网站建设需要什么科目网站代运营价格
  • 网站建设前的ER图ppt模板图片 背景
  • 做一个网站花多少钱网站导航营销步骤
  • 仙桃网站定制做房产网站能赚钱吗
  • 西安网站制作模板最新源码
  • 南京江宁网站建设大学高校网站建设栏目
  • 模板网站建设明细报价表做网站第一
  • 公司网站建设系统软件开发 上海
  • 怎么让公司建设网站固安县建设局网站
  • 360免费建站官网入口手机网站建设设计
  • 商城网站建站系统dw如何做网页
  • 网站建设的公司收费我有网站 怎么做淘宝推广的
  • 网站建设策划书事物选题手机兼职app
  • html5 微网站模版wordpress博客速度很慢
  • 怎么做五个页面网站网络推广如何收费
  • 上虞宇普电器网站建设江西建筑人才网