当前位置: 首页 > news >正文

seo擦边球网站网站建立连接不安全

seo擦边球网站,网站建立连接不安全,做网站公司 信科网络,一般网站字体大小一、引言 在机器学习项目中#xff0c;数据探索是至关重要的一步。它不仅是模型构建的基础#xff0c;还是确保模型性能稳定、预测准确的关键。数据探索的过程中#xff0c;数据质量和数据特征分析占据了核心地位。数据质量直接关系到模型能否从数据中提取有效信息#xff…一、引言 在机器学习项目中数据探索是至关重要的一步。它不仅是模型构建的基础还是确保模型性能稳定、预测准确的关键。数据探索的过程中数据质量和数据特征分析占据了核心地位。数据质量直接关系到模型能否从数据中提取有效信息而数据特征分析则决定了模型能否准确捕捉数据的内在规律和模式。 高质量的数据能够减少模型训练时的噪声干扰提高模型的泛化能力。相反如果数据中存在大量错误、重复或缺失的值模型的性能将受到严重影响。同样对数据特征进行深入分析有助于理解数据的分布、相关性以及潜在的规律从而为模型选择和特征工程提供有力支持。 因此在机器学习项目中进行充分的数据探索特别是对数据质量和数据特征进行深入分析对于提高模型性能具有不可替代的作用。 二、数据质量分析 数据质量分析是数据挖掘过程中不可或缺的一环它位于数据准备的核心阶段为数据预处理提供了关键的指导更是确保数据挖掘分析结论有效性和准确性的基石。没有坚实可靠的数据支撑数据挖掘所构建的模型将如同空中楼阁缺乏实际价值和应用意义。 数据质量分析的主要任务是检查原始数据中是否存在脏数据脏数据一般是指不符合要求以及不能直接进行相应分析的数据。在常见的数据挖掘工作中脏数据包括如下内容。 缺失值。异常值。不一致的值。重复数据及含有特殊符号如#、、*)的数据。 本小节将主要对数据中的缺失值、异常值和一致性进行分析。 2.1 缺失值分析 数据的缺失是一个普遍存在的问题主要表现为记录整体的缺失或记录中某个特定字段的信息缺失。这两种情况都可能导致分析结果的偏差。以下我们将从缺失值产生的原因和其对分析的影响以及如何处理这些缺失值等几个方面进行详细探讨。 缺失值可能产生的原因。有时某些信息可能暂时无法获取或者获取这些信息的成本过高因此选择留空。另外有些信息的缺失可能是由于人为疏忽如输入时认为某些信息不重要、忘记填写或对数据理解有误等。同时非人为因素也可能导致数据缺失如数据采集、存储或传输过程中的故障。还有一种情况是某些属性值对于某些对象来说本身就是不存在的例如未婚者的配偶信息或未成年人的收入等。 缺失值对数据分析和挖掘的影响。首先缺失值会导致大量有用信息的丢失从而影响数据挖掘模型的准确性和完整性。其次缺失值会使模型的不确定性增加使得模型中的规律更难被准确捕捉和理解。最后包含缺失值的数据可能会干扰建模过程导致模型输出不可靠从而影响决策的有效性。 针对缺失值的问题我们需要进行仔细的分析和处理。通过简单的统计分析我们可以了解哪些属性存在缺失值以及每个属性的缺失程度。在处理缺失值时我们可以选择删除存在缺失值的记录、对缺失值进行插补或保留缺失值不做处理等方法。具体选择哪种方法需要根据数据的实际情况和分析目的来决定。 2.2 异常值分析 异常值分析是检验数据是否有录入错误以及含有不合常理的数据。忽视异常值的存在是十分危险的不加剔除地把异常值包括进数据的计算分析过程中对结果会产生不良影响 重视异常值的出现分析其产生的原因常常成为发现问题进而改进决策的契机。 异常值是指样本中的个别值其数值明显偏离其余的观测值。异常值也称为离群点异常值的分析也称为离群点分析。 (1简单统计量分析 可以先对变量做一个描述性统计进而查看哪些数据是不合理的。最常用的统计量是最大值和最小值用来判断这个变量的取值是否超出了合理的范围。如客户年龄的最大值为199岁则该变量的取值存在异常。 (23 δ \delta δ原则 正态分布图根据正态分布的定义可知数据点落在偏离均值正负1倍标准差即sigma值内的概率为68.2%数据点落在偏离均值正负2倍标准差内的概率为95.4%数据点落在偏离均值正负3倍标准差内的概率为99.6%。 所以换个角度思考上文提到的概率值如果数据点落在偏离均值正负2倍标准差之外的概率就不足5%它属于小概率事件即认为这样的数据点为异常点。同理如果数据点落在偏离均值正负3倍标准差之外的概率将会更小可以认为这些数据点为极端异常点。为使读者直观地理解文中提到的概率值可以查看标准正态分布的概率密度图如下图所示   如果数据服从正态分布在3 δ \delta δ原则下异常值被定义为一组测定值中与平均值的偏差超过3倍标准差的值。在正态分布的假设下距离平均值3 δ \delta δ之外的值出现的概率为 P x − μ 3 δ ≤ 0.003 Px-μ3\delta≤0.003 Px−μ3δ≤0.003属于极个别的小概率事件。 如果数据不服从正态分布也可以用远离平均值的多少倍标准差来描述。 3 δ \delta δ原则使用案列 # 读入外部数据 pay_ratio pd.read_excel(rC:\Users\Administrator\Desktop\pay_ratio.xlsx) # 绘制单条折线图并在折线图的基础上添加点图 plt.plot(pay_ratio.date, # x轴数据pay_ratio.ratio, # y轴数据linestyle -, # 设置折线类型linewidth 2, # 设置线条宽度color steelblue, # 设置折线颜色marker o, # 往折线图中添加圆点markersize 4, # 设置点的大小markeredgecolorblack, # 设置点的边框色markerfacecolorblack) # 设置点的填充色 # 显示图形 plt.show()# 添加上下界的水平参考线便于判断异常点如下判断极端异常点只需将2改为3 plt.axhline(y pay_ratio.ratio.mean() - 2* pay_ratio.ratio.std(), linestyle --, color gray) plt.axhline(y pay_ratio.ratio.mean() 2* pay_ratio.ratio.std(), linestyle --, color gray)# 导入模块用于日期刻度的修改因为默认格式下的日期刻度标签并不是很友好 import matplotlib as mpl # 获取图的坐标信息 ax plt.gca() # 设置日期的显示格式 date_format mpl.dates.DateFormatter(%m-%d) ax.xaxis.set_major_formatter(date_format) # 设置x轴每个刻度的间隔天数 xlocator mpl.ticker.MultipleLocator(7) ax.xaxis.set_major_locator(xlocator) # 为了避免x轴刻度标签的紧凑将刻度标签旋转45度 plt.xticks(rotation45)(3箱型图分析 箱型图提供了识别异常值的一个标准:异常值通常被定义为小于 Q L − 1.5 I Q R Q_L-1.5IQR QL​−1.5IQR或大于 Q U 1.5 I Q R Q_U1.5IQR QU​1.5IQR的值。 Q L Q_L QL​称为下四分位数表示全部观察值中有四分之一的数据取值比它小; Q U Q_U QU​称为上四分位数表示全部观察值中有四分之一的数据取值比它大;IQR称为四分位数间距,是上四分位数Qu与下四分位数,之差其间包含了全部观察值的一半。 箱型图依据实际数据绘制没有对数据作任何限制性要求(如服从某种特定的分布形式)它只是真实直观地表现数据分布的本来面貌;另一方面,箱型图判断异常值的标准以四分位数和四分位距为基础四分位数具有一定的鲁棒性:多达25%的数据可以变得任意远而不会很大地扰动四分位数,所以异常值不能对这个标准施加影响。由此可见,箱型图识别异常值的结果比较客观在识别异常值方面有一定的优越性如图所示。 2.3 一致性分析 数据不一致性是指数据之间存在矛盾或不相容的情况。如果直接对这类数据进行挖掘分析那么得出的结果很可能与实际情况相悖导致错误的结论。 在数据挖掘的流程中数据不一致的问题通常出现在数据集成阶段。这往往是因为所挖掘的数据来源于多个不同的数据源或者对于重复存储的数据没有进行同步更新。举个例子来说假设有两张表都记录了用户的电话号码但是当用户的电话号码发生变动时如果只更新了其中一张表的数据那么这两张表中的数据就会出现不一致的情况。因此在进行数据挖掘之前必须对数据进行清洗和整合以确保数据的一致性和准确性。 三、数据特征分析 对数据进行质量分析以后接下来可通过绘制图表、计算某些特征量等手段进行数据的特征分析。 3.1 分布分析 分布分析能揭示数据的分布特征和分布类型。对于定量数据欲了解其分布形式是对称的还是非对称的发现某些特大或特小的可疑值可通过绘制频率分布表、绘制频率分布直方图、绘制茎叶图进行直观地分析;对于定性分类数据可用饼图和条形图直观地显示分布情况。 1.定量数据的分布分析 对于定量变量而言选择“组数”和“组宽”是做频率分布分析时最主要的问题一般按照以下步骤进行。 求极差 极差是数据集中最大值与最小值之间的差值它反映了数据的离散程度。通过计算极差我们可以对数据集的波动范围有一个初步的了解。 决定组距与组数 组距是指每个数据分组之间的间隔大小而组数则是数据被分为多少个组。组距和组数的选择对于准确反映数据的分布特征至关重要。过小的组距和过多的组数可能导致信息过于繁琐而过大的组距和过少的组数则可能掩盖数据的真实分布。因此需要根据数据的实际情况和分析目的选择合适的组距和组数。 决定分点 分点是根据组距将数据集中的每个数值分配到相应的组中。分点的确定应确保每个数值都能被准确地归类到其所属的组中以便后续的频率分布统计。 列出频率分布表 频率分布表是将数据集按照分组进行统计列出每个分组中的频数即该分组中的数据个数。频率分布表能够直观地展示数据的分布情况便于后续的分析和比较。 绘制频率分布直方图 频率分布直方图是根据频率分布表绘制的图形它更直观地展示了数据的分布情况。在直方图中每个分组的频数用矩形的面积表示矩形的宽度表示组距高度表示频数。通过直方图我们可以快速地了解数据的分布形态、集中趋势和离散程度。 2.定性数据的分布分析 定性数据的分布分析主要关注数据的类别属性通过分析不同类别的分布情况来揭示数据的内在特征。 数据分类 首先需要对定性数据进行分类明确数据的类别属性。这些类别可以是根据问题的性质和研究目的自行定义的也可以是已有的分类标准。 频数统计 然后对每个类别进行频数统计即统计每个类别在数据集中出现的次数。频数统计有助于我们了解各类别在总体中的分布情况。 比例计算 除了频数统计外还可以计算各类别的比例即每个类别的频数占总频数的百分比。比例计算能够更直观地展示各类别在总体中的相对重要性。 可视化展示 为了更好地展示定性数据的分布情况可以使用饼图、条形图等可视化工具进行展示。这些图形能够直观地展示各类别的比例和分布情况便于分析和解释。 3.2 对比分析 对比分析是指把两个相互联系的指标进行比较从数量上展示和说明研究对象规模的大小水平的高低速度的快慢以及各种关系是否协调。特别适用于指标间的横纵向比较、时间序列的比较分析。在对比分析中选择合适的对比标准是十分关键的步骤只有选择合适才能做出客观的评价选择不合适评价可能得出错误的结论。 对比分析主要有以下两种形式。 (1) 绝对数比较   绝对数比较是一种直接利用数值大小进行比较的方法它侧重于分析不同数据组之间的实际数量差异。这种比较方式直观明了能够清晰地展示各个数据组的具体数值从而揭示它们之间的规模、水平或总量的差异。 (2相对数比较 结构相对数 结构相对数用于描述某一总体内部各组成部分所占的比重或分布状况。例如在一份关于员工构成的报告中结构相对数可以展示不同部门或不同职位的员工数量占总员工数量的比例从而揭示员工构成的分布情况。 比例相对数 比例相对数用于比较两个不同总体之间的数量关系。例如比较两个城市的GDP增长率可以通过计算它们的比例相对数来展示两个城市在经济增长方面的差异。 比较相对数 比较相对数用于比较同一总体在不同时期或不同条件下的数量变化。例如比较一个公司今年和去年的销售额可以通过计算比较相对数来揭示销售额的增长或下降情况。 强度相对数 强度相对数用于描述两个有联系的不同总体之间的数量对比关系。例如在人口统计学中强度相对数可以用于比较人口数量和土地资源之间的关系从而揭示人口承载能力的状况。 计划完成程度相对数 计划完成程度相对数用于评估实际完成数与计划完成数之间的比例关系。这种相对数常用于评估项目、计划或任务的完成情况帮助决策者了解实际进度与预期目标之间的差距。 动态相对数 动态相对数用于描述某一现象在不同时期的发展速度或变化程度。例如计算一个国家近几年的GDP增长率可以揭示该国经济发展的动态趋势。 3.3 统计量分析 统计量分析通常包括中心趋势统计量、散布程度统计量和分布形状统计量等几类。中心趋势统计量用于表示数据的集中趋势如均值、中位数和众数等。均值是所有数值的总和除以数值的数量它描述了数据的平均位置中位数则是将一组数据从小到大排列后位于中间位置的数值特别适用于倾斜的数据集众数则是数据集中出现频率最高的数值。 散布程度统计量用于衡量数据的离散程度如标准差和四分位极差。标准差反映了每个数值与均值之间的平均差异它越大说明数据越分散四分位极差则是上四分位数与下四分位数之差它描述了数据集中间50%的数值的散布范围。分布形状统计量可以帮助我们了解数据的分布形态如偏度和峰度。偏度描述了数据分布的不对称性而峰度则反映了数据分布的尖锐程度。 3.4 周期性分析 周期性分析可以应用于多个时间尺度。在较长的时间尺度上我们可以观察到年度性周期性趋势和季节性周期性趋势。例如某些行业或产品的销量可能会随着季节的更替而呈现出明显的起伏变化。而在较短的时间尺度上我们可以观察到月度、周度、天度甚至小时度的周期性趋势。这些短周期的波动可能受到多种因素的影响如特定节假日、促销活动或日常工作生活的规律等。 3.5 贡献度分析 贡献度分析又称帕累托分析它的原理是帕累托法则又称20/80定律。同样的投入放在不同的地方会产生不同的效益。例如对一个公司来讲80%的利润常常来自于20%最畅销的产品,而其他80%的产品只产生了20%的利润。 贡献度分析的核心在于通过一系列统计和数据分析技术识别并量化各个因素或变量对总体目标的贡献。这通常涉及对数据的收集、整理、清洗和转换以及应用适当的统计分析方法。在分析过程中可能需要考虑多个因素之间的相互作用和相关性以更全面地了解它们对总体目标的影响。 3.6 相关性分析 分析连续变量之间线性相关程度的强弱并用适当的统计指标表示出来的过程称为相关分析。 1.直接绘制散点图   判断两个变量是否具有线性相关关系的最直观的方法是直接绘制散点图如图所示。 2.绘制散点图矩阵   需要同时考察多个变量间的相关关系时一一绘制它们间的简单散点图是十分麻烦的。此时可利用散点图矩阵同时绘制各变量间的散点图从而快速发现多个变量间的主要相关性这在进行多元线性回归时显得尤为重要。 3.计算相关系数   为了更加准确地描述变量之间的线性相关程度可以通过计算相关系数来进行相关分析。在二元变量的相关分析过程中比较常用的有Pearson相关系数、Spearman秩相关系数和判定系数。 ( 1 ) Pearson相关系数   一般用于分析两个连续性变量之间的关系其计算公式如下 r ∑ i 1 n ( x i − x ˉ ) ( y i − y ˉ ) ∑ i 1 n ( x i − x ˉ ) 2 ∑ i 1 n ( y i − y ˉ ) 2 r \frac{\sum_{i 1} ^n(x_i-\bar{x})(y_i-\bar{y})}{\sqrt{\sum_{i 1} ^n(x_i-\bar{x})^2\sum_{i 1} ^n(y_i-\bar{y})^2}} r∑i1n​(xi​−xˉ)2∑i1n​(yi​−yˉ​)2 ​∑i1n​(xi​−xˉ)(yi​−yˉ​)​ 相关系数 r r r的取值范围 − 1 ≤ r ≤ 1 -1 \leq r \leq 1 −1≤r≤1 { r 0 为正相关 r 0 为负相关 ∣ r ∣ 0 表示不存在线性关系 ∣ r ∣ 1 表示完全线性关系 \begin{cases} r 0为正相关r 0为负相关 \\ \mid r \mid 0 表示不存在线性关系 \\ \mid r \mid 1 表示完全线性关系 \end{cases} ⎩ ⎨ ⎧​r0为正相关r0为负相关∣r∣0表示不存在线性关系∣r∣1表示完全线性关系​ 0 ∣ r ∣ 1 0 \mid r \mid 1 0∣r∣1表示存在不同程度线性关系 { ∣ r ∣ ≤ 0.3 为不存在线性相关 0.3 ∣ r ∣ ≤ 0.5 为低度线性相关 0.5 ∣ r ∣ ≤ 0.8 为显著线性相关 ∣ r ∣ 0.8 为高度线性相关 \begin{cases} \mid r \mid \leq 0.3 为不存在线性相关 \\ 0.3 \mid r \mid \leq 0.5为低度线性相关 \\ 0.5 \mid r \mid \leq 0.8为显著线性相关 \\ \mid r \mid 0.8 为高度线性相关 \end{cases} ⎩ ⎨ ⎧​∣r∣≤0.3为不存在线性相关0.3∣r∣≤0.5为低度线性相关0.5∣r∣≤0.8为显著线性相关∣r∣0.8为高度线性相关​ ( 2 ) Spearman秩相关系数   Pearson线性相关系数要求连续变量的取值服从正态分布。不服从正态分布的变量、分类或等级变量之间的关联性可采用Spearman秩相关系数也称等级相关系数来描述。 其计算公式如下。 r s 1 − 6 ∑ i 1 n ( R i − Q i ) 2 n ( n 2 − 1 ) r_s1-\frac{6\sum_{i 1} ^n(R_i-Q_i)^2}{n(n^2-1)} rs​1−n(n2−1)6∑i1n​(Ri​−Qi​)2​ 对两个变量成对的取值分别按照从小到大或者从大到小顺序编秩 R i R_i Ri​代表 x i x_i xi​的秩次 Q i Q_i Qi​代表 y i y_i yi​的秩次 R i − Q i R_i-Q_i Ri​−Qi​为 x i 、 y i x_i 、y_i xi​、yi​的秩次之差。 下表给出一个变量 x ( x 1 , x 2 , . . . , x i , . . . , x n ) x(x_1,x_2,...,x_i,...,x_n) x(x1​,x2​,...,xi​,...,xn​)秩次的计算过程。 变量 x 秩次的计算过程 \bold{变量x秩次的计算过程} 变量x秩次的计算过程 x i x_i xi​从小到大排序从小到大排序时的位置秩次 R i R_i Ri​0.5110.8221.0331.24(45)/24.51.25(45)/24.52.3662.877 因为一个变量的相同的取值必须有相同的秩次所以在计算中采用的秩次是排序后所在位置的平均值。   只要两个变量具有严格单调的函数关系那么它们就是完全Spearman相关的这与Pearson相关不同Pearson相关只有在变量具有线性关系时才是完全相关的。   在实际应用计算中上述两种相关系数都要对其进行假设检验使用t检验方法检验其显著性水平以确定其相关程度。研究表明在正态分布假定下Spearman秩相关系数与Pearson相关系数在效率上是等价的而对于连续测量数据更适合用Pearson相关系数来进行分析。 ( 3 ) 判定系数 判定系数是相关系数的平方用 r 2 r^2 r2表示;用来衡量回归方程对y的解释程度。判定系数取值范围: 0 ≤ r 2 ≤ 1 0≤r^2≤1 0≤r2≤1。 r 2 r^2 r2越接近于1表明 x x x与 y y y之间的相关性越强; r 2 r^2 r2越接近于0表明两个变量之间几乎没有直线相关关系。 五、总结 数据探索在机器学习的全过程中扮演着至关重要的角色。它是数据预处理的关键步骤是模型构建的基础更是确保模型性能稳定、预测准确的核心保障。通过对数据的深入探索我们可以理解数据的结构、质量、特征分布以及与目标变量的关系从而为后续的模型选择、特征工程以及参数调优提供有力的依据。 在数据质量分析阶段我们特别关注了缺失值的处理。缺失值不仅可能影响模型的训练效果还可能导致模型对数据的解释能力下降。因此对缺失值的识别、原因分析和处理是数据探索中不可或缺的一部分。通过选择合适的填充方法或删除策略我们可以有效地减少缺失值对模型性能的影响。 在数据特征分析阶段我们利用统计描述、可视化工具以及相关性分析等方法深入挖掘了数据中的有用信息。通过对特征与目标变量之间关系的探究我们可以筛选出对模型性能有提升作用的特征同时去除那些与目标变量无关或相关性较弱的特征从而提高模型的预测精度和泛化能力。 此外数据探索还有助于发现数据中的异常值和潜在模式。异常值可能是由于数据录入错误、测量误差或特殊事件引起的如果不加以处理可能会对模型的训练产生干扰。通过数据探索我们可以及时发现并处理这些异常值确保模型的稳定性和可靠性。 综上所述数据探索是机器学习项目中的一项重要任务它贯穿于整个项目流程从数据收集、预处理到模型构建和评估都离不开数据探索的支持。只有充分、深入地探索数据我们才能更好地理解数据从数据中提取有价值的信息为机器学习模型的构建和优化提供坚实的基础。 注   后面的【机器学习】数据探索—python主要的探索函数将重点介绍在数据探索阶段使用的功能函数让我们一起来学习数据处理的步骤和功能函数为机器学习的模型提升更有效的保障。
http://www.w-s-a.com/news/209168/

相关文章:

  • 常州城投建设招标网站网页设计入门教学视频
  • 石家庄教育平台网站建设wordpress 访问量统计
  • 为什么买的网站模版不好用ftp网站建设
  • 做网站办公照片crm系统视频
  • 网站建设 招标文件南昌做网络推广的
  • 增城电子商务网站建设浙江省住房和城乡建设部网站
  • 企业网站宽度给多少手机软件开发公司排名
  • 装修设计网站哪个平台最好免费自助建站工具
  • 网站建设规划结构网站服务费怎么做分录
  • 哪里有做网站的公司微商怎么开店步骤
  • 访问不了服务器的网站北京工业产品设计公司
  • 怎么棋牌网站建设口碑好的福州网站建设
  • 怎么样注册一个网站南通网站定制搭建
  • 网站免费正能量软件下载wordpress 多本小说
  • 临淄网站制作价格低长沙谷歌seo收费
  • 吴江公司网站建设电话免费的那种软件
  • 大淘客网站如何做seo网络广告设计公司
  • 厦门网络营销顾问湘潭网站seo
  • asp.net个人网站淮南 搭建一个企业展示网站
  • 备案关闭网站wordpress 替换
  • 台州建设网站制作wordpress乱码
  • 互联网时代 网站建设做交互设计的网站
  • 网站屏蔽中文浏览器湘潭做网站广告的公司
  • 好看的单页面网站模板免费下载手机网站经典案例
  • 优秀网站建设平台建筑模板工厂价格尺寸
  • 合肥微信网站建设旅游景区网站模板
  • 一个只做百合的网站wordpress文章和博客的区别
  • 编写网站策划方案网站哪里有
  • 网站做得好的公司国家防疫政策最新调整
  • 设计优秀的企业网站做行测的网站