当前位置: 首页 > news >正文

网站建设评审标准商务网站建设过程中应对可能遇到的风险

网站建设评审标准,商务网站建设过程中应对可能遇到的风险,自己制作广告,网站内容建设和运营工作内容目录 逻辑回归 算法原理 决策树 决策树算法概述 树的组成 决策树的训练与测试 切分特征 衡量标准--熵 信息增益 决策树构造实例 连续值问题解决 预剪枝方法 分类与回归问题解决 决策树解决分类问题步骤 决策树解决回归问题步骤 决策树代码实例 集成算法 Baggi…目录 逻辑回归 算法原理 决策树 决策树算法概述 树的组成 决策树的训练与测试 切分特征 衡量标准--熵 信息增益 决策树构造实例 连续值问题解决 预剪枝方法 分类与回归问题解决  决策树解决分类问题步骤 决策树解决回归问题步骤 决策树代码实例 集成算法 Bagging模型 使用Bagging模型的示例代码 Boosting模型 AdaBoost Stacking模型 支持向量机 决策边界 距离的计算 数据标签定义 优化的目标 目标函数 拉格朗日乘子法 SVM求解 SVM求解实例 soft-margin 低维不可分问题 逻辑回归 逻辑回归是一种用于解决二分类问题的机器学习分类算法。它通过将输入特征与权重相乘并加上偏置项然后将结果通过一个称为“sigmoid函数”的激活函数进行转换得到一个介于0和1之间的概率值。这个概率值表示样本属于正类的概率。 算法原理 自变量取值为任意实数值域[0,1]将任意的输入映射到了[0,1]区间我们在线性回归中可以得到一个预测值再将该值映射到Sigmoid 函数中这样就完成了由值到概率的转换也就是分类任务。 决策树 决策树算法是一种有监督学习算法它通过构建树形结构的模型来进行决策。决策树的原理是基于特征选择和节点划分的思想。 特征选择是指从所有特征中选择一个最优的特征作为当前节点的划分标准。常用的特征选择方法有信息增益、信息增益比、基尼指数等。这些方法都是通过计算特征对于分类结果的重要性来选择最优特征。 节点划分是指根据选定的特征将数据集划分为不同的子集。每个子集对应一个分支分支上的样本具有相同的特征值。节点划分的目标是使得每个子集中的样本尽可能属于同一类别即增加纯度。 决策树的构建过程是递归的从根节点开始根据特征选择和节点划分的原则逐步构建子树直到满足终止条件。终止条件可以是达到预定的树深度、节点中的样本数小于某个阈值或者节点中的样本属于同一类别。 决策树算法概述 决策树算法是一种基于树形结构的分类学习方法。它通过对数据集进行递归地划分构建一颗由多个判断节点组成的树。每个内部节点表示一个属性上的判断每个分支代表一个判断结果的输出最后每个叶节点代表一种分类结果。 决策树算法的概述如下 1. 选择最佳划分属性根据某个评价指标如信息增益、基尼指数等选择最佳的属性作为当前节点的划分属性。 2. 划分数据集根据划分属性的取值将数据集划分为多个子集每个子集对应一个分支。 3. 递归构建子树对每个子集重复步骤1和步骤2递归地构建子树直到满足终止条件如节点中的样本属于同一类别或者没有更多属性可供划分。 4. 剪枝处理为了避免过拟合可以对构建好的决策树进行剪枝处理即去掉一些不必要的节点和分支。 5. 预测分类结果根据构建好的决策树对新样本进行分类预测。 决策树算法的优点包括易于理解和解释、能够处理离散型和连续型属性、能够处理多分类问题等。然而决策树算法也存在一些缺点如容易过拟合、对噪声敏感等。 树的组成 根节点第一个选择点 非叶子节点与分支中间过程 叶子节点最终的决策结果 决策树的训练与测试 训练阶段从给定的训练集构造出来一棵树从跟节点开始选择特征如何进行特征切分 测试阶段根据构造出来的树模型从上到下去走一遍就好了一旦构造好了决策树那么分类或者预测任务就很简单了只需要走一遍就可以了那么难点就在于如何构造出来一颗树这就没那么容易了需 要考虑的问题还有很多的 切分特征 问题根节点的选择该用哪个特征呢接下来呢如何切分呢想象一下我们的目标应该是根节点就像一个老大似的能更好的切分数据 分类的效果更好根节点下面的节点自然就是二当家了目标通过一种衡量标准来计算通过不同特征进行分支选择后的分类 情况找出来最好的那个当成根节点以此类推。 衡量标准--熵 熵是表示随机变量不确定性的度量 解释说白了就是物体内部的混乱程度比如杂货市场里面什么都有 那肯定混乱呀专卖店里面只卖一个牌子的那就稳定多啦熵用来衡量一组数据的平均信息量或平均不确定性。如果数据的可能取值越多即数据的分布越均匀那么熵就越大相反如果数据的可能取值越少即数据的分布越集中熵就越小。熵的计算公式可以表示为H(X) -Σ(p(x) * log2(p(x)))其中X是随机变量p(x)是X取值为x的概率。这个公式将每个可能取值的概率与其对应的信息量以2为底的对数相乘并对所有可能取值进行求和。熵的单位通常以比特bit来衡量。 熵是衡量信息或数据的不确定性和随机性的量化指标。熵的大小与不确定性成正比即越大的熵表示数据越随机、越不确定。而越小的熵则表示数据越有序、越确定。可以将熵看作数据中所包含的信息量当熵最大时数据中的每个元素都是等概率出现的难以从中获得有用的信息而当熵最小时数据中的每个元素都具有确定性从中获得的信息量很小。 在机器学习中熵经常用于衡量分类问题中的不确定性。在决策树算法中通过计算每个特征的熵来选择分裂节点以达到最佳的分类效果。熵可以帮助我们理解数据的分布情况和模型的性能同时也可以作为评估模型预测结果质量的指标之一。  信息增益 信息增益是一种用于决策树算法中的指标用于衡量特征对于分类任务的重要性。它衡量了在划分数据集之前和之后分类的不确定性减少的程度。信息增益越大表示使用该特征进行划分能够获得更多的信息从而更好地分类数据。 计算信息增益的步骤如下 1. 计算划分前的数据集的信息熵Entropy作为基准。 2. 对于每个特征计算该特征划分后的加权平均信息熵。 3. 计算每个特征的信息增益即划分前的信息熵减去划分后的加权平均信息熵。 决策树构造实例 数据14天打球情况 特征4种环境变化——outlook、temperature、humidity、windy标签为 play 目标构造决策树 划分方式4种 问题谁当根节点呢 依据信息增益 在历史数据中看play标签14天有9天打球(yes)5天不打球(no)所以此时的初始熵值应为 4个特征逐一分析先从outlook特征开始 同理计算其余三个特征的增益 信息增益不适合解决特征较多的非常稀疏的特征例如数据中的ID列。 连续值问题解决 贪婪算法是一种基于贪婪策略的算法它在每一步选择中都采取当前状态下最优的选择而不考虑全局最优解。贪婪算法通常适用于求解最优化问题其中问题的解可以通过一系列局部最优选择来构建。 贪婪算法的概述如下 1. 初始化选择一个初始解作为当前解。 2. 选择从可行解集合中选择一个局部最优解作为当前解的下一步。 3. 更新更新当前解为新的局部最优解。 4. 终止条件重复步骤2和步骤3直到满足终止条件。 贪婪算法的特点是简单、高效并且通常能够在较短的时间内找到一个近似最优解。然而由于贪婪算法只考虑局部最优解而不考虑全局最优解因此不能保证一定能够找到全局最优解。 贪婪算法在许多问题中都有应用例如最短路径问题、背包问题、赫夫曼编码等。它可以通过选择当前状态下的最优解来解决这些问题从而得到一个近似最优解。 例如以下体重哪些属于适合打篮球那些不适合打篮球。 首先将数据进行从小到大排序60  70  75  85  90  95  100  120  125  220若进行“二分”则可能有9个分界点分别计算分割后的增益找到最优解。实际上就是“离散化”过程。 预剪枝方法 为什么要剪枝决策树过拟合风险很大理论上可以完全分得开数据 想象一下如果树足够庞大每个叶子节点不就一个数据了嘛剪枝策略预剪枝后剪枝 预剪枝边建立决策树边进行剪枝的操作更实用限制深度叶子节点个数叶子节点样本数设置信息增益量将不达标的减去等 预剪枝pre-pruning是在决策树构建过程中在每个节点上进行判断如果当前节点的划分不能带来决策树泛化性能的提升就停止划分并将当前节点标记为叶子节点。预剪枝的优点是构建速度快但可能会导致欠拟合即决策树无法充分利用训练数据的特征。 后剪枝当建立完决策树后来进行剪枝操作通过一定的衡量标准叶子节点越多损失越大 后剪枝post-pruning是在决策树构建完成后通过剪枝操作来减小决策树的复杂度提高泛化能力。后剪枝的过程是先从决策树的叶子节点开始逐个尝试剪枝然后通过交叉验证等方法评估剪枝前后的决策树性能如果剪枝后性能没有显著下降则进行剪枝操作。后剪枝的优点是可以充分利用训练数据的特征但剪枝过程较为复杂训练开销较大。 分类与回归问题解决  决策树解决分类问题步骤 决策树是一种常用的解决分类问题的算法。它通过构建一棵树来对数据进行分类。决策树的构建过程是基于特征的划分每个内部节点代表一个特征每个叶节点代表一个类别。 决策树的构建过程如下 1. 选择一个特征作为根节点将数据集按照该特征的取值进行划分。 2. 对每个子数据集重复步骤1选择一个最佳的特征作为子节点并继续划分数据集。 3. 重复步骤2直到满足终止条件例如所有数据属于同一类别或者数据集为空。 决策树的分类过程如下 1. 对于一个新的样本从根节点开始根据样本的特征值选择相应的子节点。 2. 继续在子节点中进行选择直到到达叶节点。 3. 将叶节点所代表的类别作为预测结果。 决策树的优点是易于理解和解释可以处理离散和连续特征对缺失值也有一定的容忍度。然而决策树容易过拟合特别是当树的深度较大时。为了避免过拟合可以使用剪枝技术如预剪枝和后剪枝。 决策树解决回归问题步骤 决策树可以通过构建回归树来解决回归问题。回归树是将数据空间划分为多个子空间并为每个子空间分配一个预测值。下面是决策树解决回归问题的步骤 1. 选择一个特征和一个切分点将数据集划分为两个子集。 2. 对于每个子集计算目标变量的平均值作为预测值。 3. 计算划分后的子集的均方误差MSE。 4. 选择最佳的特征和切分点使得划分后的子集的均方误差最小化。 5. 重复步骤1-4直到满足停止条件例如达到最大深度或子集中的样本数量小于阈值。 6. 最终得到一个回归树可以用于预测新的数据样本。 通过构建回归树决策树可以根据输入特征预测连续型目标变量的值。回归树的构建方法与分类树类似但是在每个节点上使用的划分准则不同。回归树使用均方误差MSE作为划分准则以最小化预测值与真实值之间的差异。 决策树代码实例 from matplotlib.font_manager import FontProperties import matplotlib.pyplot as plt from math import log import operatordef createDataSet():# 四组特征一个标签dataSet [[0, 0, 0, 0, no],[0, 0, 0, 1, no],[0, 1, 0, 1, yes],[0, 1, 1, 0, yes],[0, 0, 0, 0, no],[1, 0, 0, 0, no],[1, 0, 0, 1, no],[1, 1, 1, 1, yes],[1, 0, 1, 2, yes],[1, 0, 1, 2, yes],[2, 0, 1, 2, yes],[2, 0, 1, 1, yes],[2, 1, 0, 1, yes],[2, 1, 0, 2, yes],[2, 0, 0, 0, no]]# 第一列年龄、第二列工作等级、第三列买没买房、第四列贷款记录、第五列会不会带给用户labels [F1-AGE, F2-WORK, F3-HOME, F4-LOAN]return dataSet, labels# 创建树模型 # 参数数据集、标签列名、根节点排列 def createTree(dataset,labels,featLabels):# 1.判断节点标签是否一致停止条件# 将dataset中的数据按行依次放入example中# 然后取得example中的最后一列元素将这些元素放入列表classList中。classList [example[-1] for example in dataset]# 2.计算列表中元素是否完全相同,即是否全为yes或者全为no停止条件if classList.count(classList[0]) len(classList):# 返回第一个元素值即相同类别值return classList[0]# 3.当dataSet数据集中的值只剩下一列标签时,说明数据集已遍历完成返回最多的类别if len(dataset[0]) 1:# majorityCnt()函数计算每列中最多的类别return majorityCnt(classList)# chooseBestFeatureToSplit()函数选择最好的特征进行分割# 4.遍历整个数据集选择最优的特征结果返回一个索引值bastFeat chooseBestFeatureToSplit(dataset)# 5.获取索引值实际对应的名称bastFeatLabel labels[bastFeat]# 6.得到树模型的根节点featLabels.append(bastFeatLabel)# 7.构建树模型整体结构,第一次得到根节点随后依次嵌套myTree {bastFeatLabel:{}}# 8.每完成一次删除当前索引del labels[bastFeat]# 统计当前列中有多少不一样的值例如只有0和1则树模型分为两个分支若含有多个则分为多个分支# 获取当前列的所有特征featValue [example[bastFeat] for example in dataset]# 去除重复值得到具体的分支个数uniqueVals set(featValue)# 对于每个分支再进行分支for value in uniqueVals:# 切分完之后的labelssublabels labels[:]# 在当前最好的节点下继续构建分支# splitDataSet()函数切分当前的数据集# featLabels控制树模型的特征先用哪个后用哪个myTree[bastFeatLabel][value] createTree(splitDataSet(dataset, bastFeat, value), sublabels, featLabels)return myTree# 计算每列中最多的类别 def majorityCnt(classList):classCount {}# 遍历classList中的每个元素vote。# 如果vote不在classCount的键中就将vote作为键添加到classCount中# 并将对应的值设为1。如果vote已经在classCount的键中就将对应的值加1for vote in classList:if vote not in classCount.keys(): classCount[vote] 0classCount[vote] 1# 函数使用sorted函数对classCount进行排序按照值的大小进行降序排序并返回排序后的结果中的第一个元素的第一个值sortedclassCount sorted(classCount.items(), keyoperator.itemgetter(1), reverseTrue)# 返回出现最多的return sortedclassCount[0][0]# 选择最好的特征进行分割1.首先获取数据集中特征的数量即numFeatures len(dataset) - 1。 2.然后计算整个数据集的熵即baseEntropy calcShannonEnt(dataset)。熵是衡量数据集的无序程度的指标。 3.接下来初始化最佳信息增益为0最佳特征索引为-1。 4.使用一个循环遍历每个特征 4-1.获取当前特征的所有取值即featList [example[i] for example in dataset]。 4-2将特征的取值转化为集合即uniqueVals set(featList)。 4-3初始化新的熵为0。 4-4对于每个特征取值将数据集按照当前特征的取值进行划分得到子数据集subDataSet。 4-5计算子数据集的概率即prob len(subDataSet)/float(len(dataset))。 4-6计算子数据集的熵即newEntropy prob * calcShannonEnt(subDataSet)。 4-7计算信息增益即infoGain baseEntropy - newEntropy。 4-8如果当前信息增益大于最佳信息增益则更新最佳信息增益和最佳特征索引。 5.返回最佳特征索引bestFeature。# 函数的输入参数是一个数据集dataset函数的返回值是一个整数表示最佳特征的索引 def chooseBestFeatureToSplit(dataset):# 获取数据集中特征的数量numFeatures len(dataset[0]) - 1计算熵值利用信息增益找到最优特征# 原始熵值# calcShannonEnt()计算熵值函数baseEntropy calcShannonEnt(dataset)# 设置信息增益值bestInfoGain 0# 设置最好特征bestFeature -1# 遍历每个特征for i in range(numFeatures):# 获取当前列特征featList [example[i] for example in dataset]# 获取唯一个数uniqueVals set(featList)newEntropy 0# 遍历特征中的每个值for val in uniqueVals:# 得到划分好的数据subDataSet splitDataSet(dataset, i, val)# 计算实际熵值prob len(subDataSet) / float(len(dataset))# 更新熵值newEntropy prob * calcShannonEnt(subDataSet)# 定义新的信息增益值infoGain baseEntropy - newEntropyif (infoGain bestInfoGain):bestInfoGain infoGainbestFeature ireturn bestFeature# 切分数据集 def splitDataSet(dataset, axis, val):# 创建一个空列表用于存储划分后的子集retDataSet []# 遍历数据集中的每个样本for featVec in dataset:# 如果样本的第axis个特征值等于给定的特征值valif featVec[axis] val:# 将样本中除了第axis个特征之外的特征值存储到reducedFeatVec中reducedFeatVec featVec[:axis]# 将样本中第axis个特征之后的特征值添加到reducedFeatVec中reducedFeatVec.extend(featVec[axis 1:])# 将划分后的样本添加到retDataSet中retDataSet.append(reducedFeatVec)# 返回划分后的子集return retDataSet# 计算熵值 def calcShannonEnt(dataset):# 所有数量numexamples len(dataset)# 每个标签出现的次数即yes出现多少个no出现多少个labelCounts {}# 对于每个样本进行遍历查看为yes还是nofor featVec in dataset:# 查看当前样本的标签值currentlabel featVec[-1]# 当前样本不在字典中if currentlabel not in labelCounts.keys():labelCounts[currentlabel] 0labelCounts[currentlabel] 1# 设置原始熵值为0通过具体计算改变熵值shannonEnt 0# 有多少类别就遍历多少次for key in labelCounts:# 概率值 个数/总数prop float(labelCounts[key]) / numexamples# shannonEnt -prop * log(prop, 2)shannonEnt - prop * log(prop, 2)return shannonEnt# 决策树绘制 def getNumLeafs(myTree):numLeafs 0firstStr next(iter(myTree))secondDict myTree[firstStr]for key in secondDict.keys():if type(secondDict[key]).__name__dict:numLeafs getNumLeafs(secondDict[key])else: numLeafs 1return numLeafsdef getTreeDepth(myTree):maxDepth 0firstStr next(iter(myTree))secondDict myTree[firstStr]for key in secondDict.keys():if type(secondDict[key]).__name__dict:thisDepth 1 getTreeDepth(secondDict[key])else: thisDepth 1if thisDepth maxDepth: maxDepth thisDepthreturn maxDepthdef plotNode(nodeTxt, centerPt, parentPt, nodeType):arrow_args dict(arrowstyle-)font FontProperties(fnamerc:\windows\fonts\simsunb.ttf, size14)createPlot.ax1.annotate(nodeTxt, xyparentPt, xycoordsaxes fraction,xytextcenterPt, textcoordsaxes fraction,vacenter, hacenter, bboxnodeType, arrowpropsarrow_args, FontPropertiesfont)def plotMidText(cntrPt, parentPt, txtString):xMid (parentPt[0]-cntrPt[0])/2.0 cntrPt[0]yMid (parentPt[1]-cntrPt[1])/2.0 cntrPt[1]createPlot.ax1.text(xMid, yMid, txtString, vacenter, hacenter, rotation30)def plotTree(myTree, parentPt, nodeTxt):decisionNode dict(boxstylesawtooth, fc0.8)leafNode dict(boxstyleround4, fc0.8)numLeafs getNumLeafs(myTree)depth getTreeDepth(myTree)firstStr next(iter(myTree))cntrPt (plotTree.xOff (1.0 float(numLeafs))/2.0/plotTree.totalW, plotTree.yOff)plotMidText(cntrPt, parentPt, nodeTxt)plotNode(firstStr, cntrPt, parentPt, decisionNode)secondDict myTree[firstStr]plotTree.yOff plotTree.yOff - 1.0/plotTree.totalDfor key in secondDict.keys():if type(secondDict[key]).__name__dict:plotTree(secondDict[key],cntrPt,str(key))else:plotTree.xOff plotTree.xOff 1.0/plotTree.totalWplotNode(secondDict[key], (plotTree.xOff, plotTree.yOff), cntrPt, leafNode)plotMidText((plotTree.xOff, plotTree.yOff), cntrPt, str(key))plotTree.yOff plotTree.yOff 1.0/plotTree.totalDdef createPlot(inTree):fig plt.figure(1, facecolorwhite) #创建figfig.clf() #清空figaxprops dict(xticks[], yticks[])createPlot.ax1 plt.subplot(111, frameonFalse, **axprops) #去掉x、y轴plotTree.totalW float(getNumLeafs(inTree)) #获取决策树叶结点数目plotTree.totalD float(getTreeDepth(inTree)) #获取决策树层数plotTree.xOff -0.5/plotTree.totalW; plotTree.yOff 1.0; #x偏移plotTree(inTree, (0.5,1.0), ) #绘制决策树plt.show()if __name__ __main__:dataset, labels createDataSet()featLabels []myTree createTree(dataset,labels,featLabels)createPlot(myTree) 集成算法 集成学习Ensemble learning是一种通过组合多个弱分类器来构建一个强分类器的机器学习算法。它通过在数据上构建多个模型并将所有模型的建模结果集成起来以获得更好的回归或分类表现。集成学习在各个机器学习领域都有广泛的应用例如市场营销模拟、客户统计、疾病风险预测等。 集成学习可以分为三类算法装袋法Bagging、提升法Boosting和堆叠法Stacking。 装袋法的核心思想是构建多个相互独立的评估器然后对它们的预测结果进行平均或多数表决来决定集成评估器的结果。常见的装袋法算法有随机森林Random Forest。 提升法中基评估器是相关的是按顺序一一构建的。它的核心思想是通过多次迭代结合弱评估器的力量对难以评估的样本进行预测从而构建一个强评估器。常见的提升法算法有梯度提升树Gradient Boosting Tree和XGBoost。 堆叠法的特点是使用第一阶段的预测结果作为下一阶段的特征以提高模型的非线性表达能力和降低泛化误差。堆叠法的目标是同时降低模型的偏差和方差。 总结起来集成学习通过组合多个模型的建模结果以获得更好的回归或分类表现。装袋法通过构建多个相互独立的评估器来决定集成评估器的结果提升法通过迭代构建强评估器堆叠法通过使用预测结果作为特征来提高模型的表达能力。 目的让机器学习效果更好单个不行群殴走起Bagging训练多个分类器取平均Boosting从弱学习器开始加强通过加权来进行训练Stacking聚合多个分类或回归模型可以分阶段来做 Bagging模型 Bagging模型是一种集成学习方法它通过对训练集进行有放回的随机抽样构建多个基学习器并通过对基学习器的预测结果进行投票或平均来得到最终的预测结果。Bagging模型的主要步骤如下 随机抽样从训练集中有放回地随机抽取一定数量的样本构成新的训练集。 基学习器训练使用新的训练集训练多个基学习器。每个基学习器可以使用不同的算法或参数设置。 预测结果集成对于分类问题可以通过投票的方式来集成基学习器的预测结果对于回归问题可以通过平均的方式来集成基学习器的预测结果。 公式 Bagging模型的优点包括 可以降低模型的方差提高模型的泛化能力。可以减少过拟合的风险。可以处理高维数据和大规模数据集。 Bagging模型的缺点包括 可能增加模型的偏差导致模型的准确性下降。训练和预测的时间和内存消耗较大。 说白了就是并行训练一堆分类器最典型的代表就是随机森林。随机数据采样随机特征选择随机森林很多个决策树并行放在一起。之所以要进行随机是要保证泛化能力如果树都一样那就没意义了。 使用Bagging模型的示例代码 from sklearn.ensemble import BaggingClassifier from sklearn.tree import DecisionTreeClassifier# 创建基学习器 base_estimator DecisionTreeClassifier()# 创建Bagging模型 bagging_model BaggingClassifier(base_estimatorbase_estimator, n_estimators10)# 训练模型 bagging_model.fit(X_train, y_train)# 预测结果 y_pred bagging_model.predict(X_test) Boosting模型 Boosting模型是一种集成学习方法它通过串行训练多个弱学习器来构建一个强学习器。Boosting模型的主要思想是通过迭代的方式每一轮迭代都根据前一轮的结果来调整样本的权重使得前一轮分类错误的样本在下一轮中得到更多的关注。最终将所有弱学习器的预测结果进行加权组合得到最终的预测结果。 在Boosting模型中有几个经典的算法被广泛应用包括AdaBoost、GBDT和XGBoost。 1. AdaBoostAdaptive Boosting是一种最早提出的Boosting算法。它通过迭代训练多个弱分类器每一轮迭代都根据前一轮的分类结果来调整样本的权重使得前一轮分类错误的样本在下一轮中得到更多的关注。最终将所有弱分类器的预测结果进行加权组合到最终的预测结果。 2. GBDTGradient Boosting Decision Tree是一种基于决策树的Boosting算法。它通过迭代训练多个决策树模型每一轮迭代都根据前一轮的残差来训练下一棵决策树。最终将所有决策树的预测结果进行加权组合得到最终的预测结果。 3. XGBoosteXtreme Gradient Boosting是一种基于GBDT的Boosting算法的优化版本。它在GBDT的基础上引入了正则化项和二阶导数信息进一步提高了模型的性能和泛化能力。 这些Boosting模型在机器学习和数据挖掘领域都有广泛的应用可以用于分类问题和回归问题。 AdaBoost AdaBoostAdaptive Boosting是一种集成学习方法它通过组合多个弱学习器来构建一个强学习器。它的核心思想是通过迭代训练一系列弱分类器并根据每个弱分类器的表现来调整样本的权重使得在下一轮训练中更加关注被前一轮分类错误的样本。最终将这些弱分类器的结果进行加权组合得到一个更准确的分类结果。 AdaBoost的训练过程如下 1. 初始化样本权重使得每个样本的权重相等。 2. 迭代训练弱分类器。在每一轮迭代中根据当前样本权重训练一个弱分类器并计算分类错误率。 3. 根据分类错误率计算弱分类器的权重错误率越低的弱分类器权重越高。 4. 更新样本权重增加被错误分类的样本的权重减少被正确分类的样本的权重。 5. 重复步骤2-4直到达到预定的迭代次数或分类错误率达到要求。 6. 将所有弱分类器的结果进行加权组合得到最终的分类结果。 AdaBoost的优点是能够提高分类的准确性并且对于弱分类器的选择没有太多限制。然而它也有一些缺点比如对噪声敏感容易过拟合以及对弱分类器的训练时间较长。 Adaboost会根据前一次的分类效果调整数据权重解释如果某一个数据在这次分错了那么在下一次我就会给它更大的权重最终的结果每个分类器根据自身的准确性来确定各自的权重再合体工作流程首先每一次切一刀、然后合在一起、最终弱分类器这就升级了 Stacking模型 Stacking模型是一种集成学习方法它将多个单一模型以一定的方式组合起来以获得更好的预测性能。Stacking模型的基本思想是将多个不同的基础模型进行堆叠其中一个模型作为最终的预测模型而其他模型则作为该模型的输入。 Stacking模型的训练过程分为两个阶段。首先使用训练数据对每个基础模型进行训练。然后使用这些基础模型的预测结果作为输入再训练一个元模型也称为组合模型或次级模型。元模型使用基础模型的预测结果作为特征以生成最终的预测结果。 Stacking模型的优点在于它可以结合各个单项预测模型的优点从而提高整体的预测性能。通过使用不同类型的基础模型Stacking模型可以捕捉到不同模型的优势并在预测中进行综合利用。 堆叠很暴力拿来一堆直接上各种分类器都来了 可以堆叠各种各样的分类器KNN,SVM,RF等等 分阶段第一阶段得出各自结果第二阶段再用前一阶段结果训练 为了刷结果不择手段 范例 假设我们有三个基础模型模型A、模型B和模型C。我们使用训练数据对这三个模型进行训练并得到它们的预测结果。然后我们将这些预测结果作为特征再训练一个元模型D。最终我们可以使用元模型D来进行预测。 # 训练基础模型 model_A.fit(X_train, y_train) model_B.fit(X_train, y_train) model_C.fit(X_train, y_train)# 得到基础模型的预测结果 pred_A model_A.predict(X_test) pred_B model_B.predict(X_test) pred_C model_C.predict(X_test)# 将基础模型的预测结果作为特征训练元模型 X_meta np.column_stack((pred_A, pred_B, pred_C)) model_D.fit(X_meta, y_train)# 使用元模型进行预测 pred_final model_D.predict(X_meta_test) 支持向量机 支持向量机Support Vector MachineSVM是一种常用的监督学习算法主要用于分类和回归问题。其原理基于统计学习理论中的结构风险最小化原则。 SVM的目标是找到一个最优的超平面能够将不同类别的样本点在特征空间中划分开来并且使得两侧距离最近的样本点到超平面的距离最大化。这些距离最近的样本点被称为支持向量。 具体来说SVM的原理可以概括为以下几个步骤 1. 数据准备首先将训练数据表示为特征向量的形式并进行标记以便区分不同的类别。2. 特征空间映射将数据映射到高维特征空间通过使用核函数Kernel Function来实现。常用的核函数有线性核、多项式核和高斯核等。3. 构建超平面在特征空间中寻找一个超平面使得不同类别的样本点尽可能地分开并且使得支持向量到超平面的距离最大化。4. 分类预测对于新的未知样本点根据其在特征空间中的位置判断其所属的类别。 SVM具有以下特点和优势 - 可以解决线性可分和线性不可分的问题通过选择合适的核函数进行映射。- 在处理高维数据时表现优秀可以有效地处理特征空间维度较高的问题。- 通过最大化支持向量到超平面的距离具有较好的鲁棒性和泛化能力。- 适用于小样本情况对于样本数量较少的问题仍能取得较好的效果。 需要注意的是SVM的训练过程涉及到优化问题的求解通常采用凸优化算法进行求解例如序列最小优化SMO算法。 决策边界 在支持向量机SVM中决策边界是通过找到能够将不同类别样本分开的最优超平面来实现的。这个最优超平面被选为距离两个不同类别的样本最远的点的平均位置。这些最远的点被称为支持向量它们决定了决策边界的位置。 决策边界的形状可以是线性的也可以是非线性的。在线性可分的情况下决策边界是一个直线或超平面。在非线性可分的情况下可以使用核函数将数据映射到高维空间中从而使其在高维空间中线性可分。决策边界的选择对分类器的性能和泛化能力有很大影响。一个合理的决策边界可以更好地区分不同类别的样本并对新样本进行准确分类。 距离的计算 数据标签定义 优化的目标 目标函数 拉格朗日乘子法 SVM求解 SVM求解实例 soft-margin 低维不可分问题 点击进入核变换详解
http://www.w-s-a.com/news/835224/

相关文章:

  • 专注软件优化分享的网站梧州网页设计
  • 长春火车站和高铁站是一个站吗公司名称注册查询系统
  • 便利的集团网站建设网页的依托网站
  • 茶叶网站建设题库制作助手app
  • 网站建设栏目层级北京网站搭建公司电话
  • 网站开发运营经理打开百度竞价页面是网站是什么
  • 国内最专业的设计网站建设现在用什么语言做网站
  • 湖南网站开发 岚鸿象山县建设工程招投标网站
  • 长沙免费网站排名wordpress 教学
  • 专门做app的网站html代码是什么
  • 临沂网站制作建设欧米茄表官网
  • 北京模板网站开发全包网站建设的第三方平台
  • 在凡科做的网站怎么推广网页模板下载 免费 html
  • 有关网站建设的标题仿亿欧网wordpress
  • 网站建设公司销售招聘常用的搜索引擎有哪些?
  • wordpress中.htaccess新上线的网站怎么做优化
  • 家教网站怎么做网站建设品牌推荐
  • 青岛做外贸网站建设茶叶公司网站建设策划书
  • 个人电脑做网站主机三合一网站
  • 用html框架做网站怎么在.Net中做团购网站
  • 怎样建一个自己公司的网站制作网站需要钱吗
  • 联盟网站制作wap网站制作公司
  • 美丽乡村建设发展论坛网站wordpress 仿站 教程网
  • 浙江省建设注册管理中心网站首页优设设计网站导航
  • 台州小型网站建设国内免费的建网站平台
  • 自己做网站不推广网站建设工作室发展
  • 有女人和马做网站吗宁波seo优势
  • 网站做用户记录表电商运营推广计划方案
  • 网站备案认领杭州网页设计公司招聘
  • 易签到网站开发设计做网站运营有前途吗