当前位置: 首页 > news >正文

做网站开发很赚钱吗wordpress子站点404

做网站开发很赚钱吗,wordpress子站点404,怎么做浏览器网站吗,wordpress pdo决策树算法概述 基本概念 决策树#xff1a;从根节点开始一步步走到叶子节点#xff0c;每一步都是决策过程 对于判断的先后顺序把控特别严格 一旦将判断顺序进行变化则最终的结果将可能发生改变 往往将分类效果较佳的判断条件放在前面#xff0c;即先初略分在进行细节分…决策树算法概述 基本概念 决策树从根节点开始一步步走到叶子节点每一步都是决策过程 对于判断的先后顺序把控特别严格 一旦将判断顺序进行变化则最终的结果将可能发生改变 往往将分类效果较佳的判断条件放在前面即先初略分在进行细节分 所有的数据最终都将会落到叶子节点树模型既可以做分类也可以做回归 树的组成 根节点第一个选择点 非叶子节点与分支中间过程 叶子节点最终的决策结果 决策树的训练与测试 训练阶段从给定的训练集构造出一棵树从根节点开始选择特征即判断条件等如何进行特征切分 测试阶段根据构造出来的树模型从上至下运行一遍即可 熵 熵是表示随机变量不确定性的度量即物体内部的混乱程度 在实际运用过程中熵值越低越好 在树模型构建时也是使得熵值降低的的好 信息增益 表示特征X使得类别Y的不确定性减少的程度。分类后的专一性希望分类后的结果是同类在一起 即如何经过一个节点后左右子树的熵值之和比原来的要小则信息增益为正 计算各个特征的信息增益再选择最大的那个作为根节点 对于下一个节点其操作过程与选择根节点一致每次都需要对剩下的特征进行遍历选择出信息增益max的特征 信息增益存在的问题 当特征中存在非常稀疏并且种类非常多的特征时如id值 这时熵值经过该特征判断后值接近于0 信息增益率 公式为信息增益/该节点的熵值 该方式很好的解决了信息增益所存在的问题 gini系数 如何处理连续值 选取连续值的哪个分界点——对连续值的各个分界点进行尝试判断每个分界点的信息增益率等以选择最佳的分界点 剪枝策略 决策树过拟合风险很大理论上可以将数据完全分开即每个叶子节点只有一个数据 预剪枝 边建立决策树边进行剪枝操作 可以通过限制树的深度、叶子节点个数、叶子节点样本数、信息增益量等 预剪枝的参数都是需要通过实验不断的进行尝试来选择最佳参数的 后剪枝 建立完成决策树之后进行剪枝操作 在计算公式中ɑ的值需要自己设定值越大说明希望自己的树模型越不过拟合但是得到的结果可能不是很好值越小说明希望结果好为主对于过拟合程度不是很关注 C(T):gini系数或熵值 Tleaf叶子节点个数 回归/分类问题解决 分类问题 由于原始数据有自己的标签对于最终的叶子节点其类别所属类型使用众数方式即何种类别数据多则该叶子节点属于该类型 回归问题 回归由于没有具体的类别因而无熵值。 判断标准方差 在进行预测时该节点的节点值等于其平均数 树模型的可视化展示 下载安装包Download | Graphviz 环境变量配置GraphViz如何配置环境变量并保存图片-百度经验 (baidu.com) import numpy as np import os # %matplotlib inline import matplotlib import matplotlib.pyplot as pltplt.rcParams[axes.labelsize] 14 plt.rcParams[xtick.labelsize] 12 plt.rcParams[ytick.labelsize] 12 import warningswarnings.filterwarnings(ignore)导入鸢尾花数据集 from sklearn.datasets import load_iris from sklearn.tree import DecisionTreeClassifieriris load_iris() X iris.data[:, 2:] y iris.target创建决策树模型 tree_clf DecisionTreeClassifier(max_depth2) ##max_depth限制决策树模型最大深度 tree_clf.fit(X,y) ##模型训练画图展示决策树模型 from sklearn.tree import export_graphvizexport_graphviz(tree_clf, ##当前树模型 之前训练好的树模型out_fileiris_tree.dot, ##输出文件 .dot文件 后续会将其转为图片文件feature_namesiris.feature_names[2:], ##绘图时展示的特征名字class_namesiris.target_names,roundedTrue,filledTrue )将在文件夹中生成一个.dot文件 再利用之前下载好的软件将该文件转为png图片文件 dot -Tpng iris_tree.dot -o iris_tree.png 将会得到对应的png图片 使用代码的方式展示照片 from IPython.display import Image Image(filenameiris_tree.png,width400,height400) ##前提是已经将dot文件转为相关的照片格式 决策树的决策边界展示 import numpy as np import os # %matplotlib inline import matplotlib import matplotlib.pyplot as pltplt.rcParams[axes.labelsize] 14 plt.rcParams[xtick.labelsize] 12 plt.rcParams[ytick.labelsize] 12 import warningswarnings.filterwarnings(ignore)导入鸢尾花数据集 from sklearn.datasets import load_iris from sklearn.tree import DecisionTreeClassifieriris load_iris() X iris.data[:, 2:] y iris.target创建决策树模型 tree_clf DecisionTreeClassifier(max_depth2) ##max_depth限制决策树模型最大深度 tree_clf.fit(X, y) ##模型训练print(tree_clf.predict_proba([[5, 1.5]])) ##预测概率值 绘制决策边界 from matplotlib.colors import ListedColormapdef plot_decision_boundary(clf, X, y, axes[0, 7.5, 0, 3], irisTrue, legendFalse, plot_trainingTrue):##找特征x1s np.linspace(axes[0], axes[1], 100)x2s np.linspace(axes[2], axes[3], 100)# 构建棋盘x1, x2 np.meshgrid(x1s, x2s)##在棋盘中构建待测试数据X_new np.c_[x1.ravel(), x2.ravel()]##预测最终结果值y_pred clf.predict(X_new).reshape(x1.shape)##确定绘制的颜色 与等高线样式custom_cmap ListedColormap([#fafab0, #9898ff, #a0faa0])plt.contourf(x1, x2, y_pred, alpha0.3, cmapcustom_cmap)if not iris:custom_cmap2 ListedColormap([#7d7d58, #4c4c7f, #507d50])plt.contour(x1, x2, y_pred, cmapcustom_cmap2, alpha0.8)if plot_training:plt.plot(X[:, 0][y 0], X[:, 1][y 0], yo, labelIris-Setosa)plt.plot(X[:, 0][y 1], X[:, 1][y 1], bs, labelIris-Versicolor)plt.plot(X[:, 0][y 2], X[:, 1][y 2], g^, labelIris-Virginica)plt.axis(axes)if iris:plt.xlabel(Petal length, fontsize14)plt.ylabel(Petal width, fontsize14)else:plt.xlabel(r$x_1$, fontsize18)plt.ylabel(rSx_2$, fontsize18, rotation0)if legend:plt.legend(loclower right, fontsize14)plt.figure(figsize(8, 4)) plot_decision_boundary(tree_clf, X, y) ###传入实际的位置值 即切割位置 plt.plot([2.45, 2.45], [0, 3], k-, linewidth2) plt.plot([2.45, 7.5], [1.75, 1.75], k--, linewidth2) plt.plot([4.95, 4.95], [0, 1.75], k:, linewidth2) plt.plot([4.85, 4.85], [1.75, 3], k:, linewidth2) plt.text(1.40, 1.0, Depth0, fontsize15) plt.text(3.2, 1.80, Depth1, fontsize13) plt.text(4.05, 0.5, (Depth2), fontsize11) plt.title(Decision Tree decision boundaries) plt.show() 树模型预剪枝参数作用 通常max_features不做限制,默认情况下全部使用除非特征数非常多max_depth树最大的深度 import numpy as np import os # %matplotlib inline import matplotlib import matplotlib.pyplot as pltplt.rcParams[axes.labelsize] 14 plt.rcParams[xtick.labelsize] 12 plt.rcParams[ytick.labelsize] 12 import warningswarnings.filterwarnings(ignore)绘制决策边界 from matplotlib.colors import ListedColormapdef plot_decision_boundary(clf, X, y, axes[0, 7.5, 0, 3], irisTrue, legendFalse, plot_trainingTrue):##找特征x1s np.linspace(axes[0], axes[1], 100)x2s np.linspace(axes[2], axes[3], 100)# 构建棋盘x1, x2 np.meshgrid(x1s, x2s)##在棋盘中构建待测试数据X_new np.c_[x1.ravel(), x2.ravel()]##预测最终结果值y_pred clf.predict(X_new).reshape(x1.shape)##确定绘制的颜色 与等高线样式custom_cmap ListedColormap([#fafab0, #9898ff, #a0faa0])plt.contourf(x1, x2, y_pred, alpha0.3, cmapcustom_cmap)if not iris:custom_cmap2 ListedColormap([#7d7d58, #4c4c7f, #507d50])plt.contour(x1, x2, y_pred, cmapcustom_cmap2, alpha0.8)if plot_training:plt.plot(X[:, 0][y 0], X[:, 1][y 0], yo, labelIris-Setosa)plt.plot(X[:, 0][y 1], X[:, 1][y 1], bs, labelIris-Versicolor)plt.plot(X[:, 0][y 2], X[:, 1][y 2], g^, labelIris-Virginica)plt.axis(axes)if iris:plt.xlabel(Petal length, fontsize14)plt.ylabel(Petal width, fontsize14)else:plt.xlabel(r$x_1$, fontsize18)plt.ylabel(rSx_2$, fontsize18, rotation0)if legend:plt.legend(loclower right, fontsize14)from sklearn.tree import DecisionTreeClassifierfrom sklearn.datasets import make_moonsX, y make_moons(n_samples100, noise0.25, random_state53) ##构造数据 tree_clf1 DecisionTreeClassifier(random_state42) tree_clf2 DecisionTreeClassifier(min_samples_leaf4, random_state42) # 设置min_samples_leaf参数 tree_clf1.fit(X, y) tree_clf2.fit(X, y) ##绘图展示对比 plt.figure(figsize(12, 4)) plt.subplot(121) plot_decision_boundary(tree_clf1, X, y, axes[-1.5, 2.5, -1, 1.5], irisFalse) plt.title(min_samples_leaf4) plt.subplot(122) plot_decision_boundary(tree_clf2, X, y, axes[-1.5, 2.5, -1, 1.5], irisFalse) plt.title(No restrictions) plt.show()回归树模型 树模型对数据的形状较为敏感当对数据进行旋转等变换后其得到的结果也是不同的 回归树与其他的不同的于 其使用的不是gini系数而是均方误差mse import numpy as np import os # %matplotlib inline import matplotlib import matplotlib.pyplot as pltplt.rcParams[axes.labelsize] 14 plt.rcParams[xtick.labelsize] 12 plt.rcParams[ytick.labelsize] 12 import warningswarnings.filterwarnings(ignore) 构造数据 np.random.seed(42) m 200 X np.random.rand(m, 1) y 4 * (X - 0.5) ** 2 y y np.random.randn(m, 1) / 10导入包 但是不同于分类决策树的包from sklearn.tree import DecisionTreeRegressortree_reg DecisionTreeRegressor(max_depth2) tree_reg.fit(X, y) from sklearn.tree import export_graphvizexport_graphviz(tree_reg, ##当前树模型 之前训练好的树模型out_fileregression_tree.dot, ##输出文件 .dot文件 后续会将其转为图片文件feature_names[X1], ##绘图时展示的特征名字roundedTrue,filledTrue )sklearn工具包中都是使用CRT算法即得到的都是二叉树
http://www.w-s-a.com/news/506689/

相关文章:

  • 淮南公司网站建设如果做京东优惠卷的网站
  • 二手房网站平台怎么做项目工程监理公司网站建设方案
  • 秦皇岛做网站公司小说推广平台有哪些
  • php网站做分享到朋友圈天元建设集团有限公司信用代码
  • 邱县做网站在线免费图片编辑器
  • 网站备份网站做网站如何把支付宝微信吧
  • 做网站的怎么获取客户信息晋城建设局网站
  • 新开传奇网站发布网单职业wordpress建站网页无法运作
  • 海南省住房和城乡建设厅官方网站网站开发有哪些语言
  • 网站开发排期表免费网站建设策划
  • 飞沐网站设计江苏建设人才网证书查询
  • 网站优化的意义怎么帮商家推广赚钱
  • 安顺公司做网站福州建设发展集团有限公司网站
  • 普陀企业网站建设做散客机票的网站如何推广
  • 河北网站建设与制作建设宁波市分行的互联网网站
  • python做网站是不是特别慢百度推广基木鱼
  • 卖网站链接东营住房和城乡建设信息网
  • 网站后台如何上传ico图标单位建设网站需要的材料
  • 如何建淘客网站郑州做网站最好的公司
  • 连锁酒店网站方案o2o网站建设方案
  • 功能型网站响应式网站原理
  • 聊城建设网站骨干校 建设网站
  • 网站建设与管理是干嘛的中国新闻社是什么单位
  • 帮别人做视频剪辑的网站传业做微采商城网站
  • 设计一个网站开发方案宣传片制作企业
  • 新网站收录多少关键词免费一键网站
  • 网页制作与网站建设 在线作业手表网站制作照片
  • 电商网站开发技术与维护重庆建筑工程交易信息网
  • 人和马做的网站线上营销推广方式
  • 青海教育厅门户网站有赞商城