动态视觉设计网站,网站备案企业用个人来备案可以用吗,互联网装修公司加盟,个人网站 备案 攻略文章目录 降维PCAsklearn中的PCA代码实践 PCA对手写数字数据集的降维 降维
如何实现降维#xff1f;【即减少特征的数量#xff0c;又保留大部分有效信息】 将那些带有重复信息的特征合并#xff0c;并删除那些带无效信息的特征等等#xff0c;逐渐创造出能够代表原特征矩… 文章目录 降维PCAsklearn中的PCA代码实践 PCA对手写数字数据集的降维 降维
如何实现降维【即减少特征的数量又保留大部分有效信息】 将那些带有重复信息的特征合并并删除那些带无效信息的特征等等逐渐创造出能够代表原特征矩阵大部分信息的特征更少的新特征矩阵。 在降维中PCA使用的信息量衡量指标就是样本方差又称可解释性方差方差越大特征所带的信息量越多。 S 2 1 n − 1 ∑ i 1 n ( x i − x ^ ) 2 S^2\frac{1}{n-1}\sum_{i1}^n(x_i-\hat{x})^2 S2n−11i1∑n(xi−x^)2 简单看一个二维降到一维的例子 我们原本有两个特征x1和x2同过将坐标系旋转45度形成一个新平面形成两个新的特征和特征值注意这时候 x 2 ∗ x2^* x2∗的方差是0所以可以将 x 2 ∗ x2^* x2∗删除同时也删除图中的 x 2 ∗ x2^* x2∗特征向量剩下的 x 1 ∗ x1^* x1∗就代表了曾经需要两个特征来代表的三个样本点。
通过旋转原有特征向量组成的坐标轴来找到新特征向量和新坐标平面我们将三个样本点的信息压缩到了一条直线上实现了二维变一维并且尽量保留原始数据的信息。一个成功的降维就实现了。
以上面二维特征的降维推导到n维数据的降维
过程二维特征矩阵n维特征矩阵1输入原数据结构为 (3,2) 找出原本的2个特征对应的直角坐标系本质是找出这2个特征构成的2维平面输入原数据结构为 (m,n) 找出原本的n个特征向量构成的n维空间V2决定降维后的特征数量1决定降维后的特征数量k3旋转找出一个新坐标系本质是找出2个新的特征向量以及它们构成的新2维平面新特征向量让数据能够被压缩到少数特征上并且总信息量不损失太多通过某种变化找出n个新的特征向量以及它们构成的新n维空间V4找出数据点在新坐标系上2个新坐标轴上的坐标找出原始数据在新特征空间V中的n个新特征向量上对应的值即“将数据映射到新空间中”5选取第1个方差最大的特征向量删掉没有被选中的特征成功将2维平面降为1维选取前k个信息量最大的特征删掉没有被选中的特征成功将n维空间V降为k维
在步骤3当中我们用来找出n个新特征向量让数据能够被压缩到少数特征上并且总信息量不损失太多的技术就是矩阵分解。
其中PCA和SVD都是采用矩阵分解的方式来对特征进行降维两种算法中矩阵分解的方法不同信息量的衡量指标不同。 PCA
PCAPrincipal Component Analysis 是一种常见的数据分析方式常用于高维数据的降维可用于提取数据的主要特征分量所以常常也叫做主成分分析。 降维降维的同时尽可能防止数据失真。
核心构造新的坐标系丢弃新的坐标系中的部分坐标从而达到降维。
PCA过程
数据中心化。 求各样本点到坐标轴的平均值然后对于所有的样例都减去对应的均值。其目的是让数据通过中心化处理得到均值为0的数据。同时中心化后的数据对向量来说也容易描述因为是以原点为基准的。 拟合线。 数据点到线的距离越小越好 数据点到线的距离越小样本点到原点的距离不变【a的值是固定的】要使b尽可能的小根据勾股定理就是使c尽可能的大也就是各样本点投影到线上的投影点到原点的距离越大越好。 样本点到线的距离越小越好 各样本点投影到线上的投影点到原点的距离越大越好 找到所有样本点投影到线上的投影点到原点的距离之和最大的线 这条线就是主成分1PC1 通过PC1可以得出Gene1这个特征要比Gene2要重要因为PC1中Gene1占的比重要大。 新的特征向量拟合线最佳拟合线也就是主成分线上的单位向量。 最佳拟合线的距离叫做PC1的特征值 根据其定义Axcx,其中A是矩阵c是特征值x是特征向量
Ax矩阵相乘的含义就是矩阵A对向量x进行一系列的变换(旋转或者拉伸)其效果等于一个常数c乘以向量x。
通常我们求特征值和特征向量是想知道矩阵能使哪些向量(当然是特征向量)只发生拉伸其拉伸程度如何(特征值的大小)。这个真正的意义在于是为了让我们看清矩阵能在哪个方向(特征向量)产生最大的变化效果。
奇异值 通过垂直PC1构造出PC2分别计算各样本的到PC1和PC2的方差。然后各自方差除以方差之和得到差异率。 sklearn中的PCA
类sklearn.decomposition.PCA参数 属性 接口
代码实践
导入库
import matplotlib.pyplot as plt # 画图工具
from sklearn.datasets import load_iris # 鸢尾花数据集
from sklearn.decomposition import PCA # PCA主成分分析类查看原本数据集
iris load_iris()
y iris.target
X iris.data
X.shape可以看到鸢尾花数据集的特征是4维的。
PCA进行降维
#调用PCA
pca PCA(n_components2) # 降到2维
pca pca.fit(X) #拟合模型
X_dr pca.transform(X) #获取新矩阵 降维后的
X_dr
#也可以fit_transform一步到位
#X_dr PCA(2).fit_transform(X)由原来的4维降到了2维将降维后的特征通过2维平面画出来
plt.figure()
plt.scatter(X_dr[y0, 0], X_dr[y0, 1], cred, labeliris.target_names[0])
plt.scatter(X_dr[y1, 0], X_dr[y1, 1], cblack, labeliris.target_names[1])
plt.scatter(X_dr[y2, 0], X_dr[y2, 1], corange, labeliris.target_names[2])
plt.legend()
plt.title(PCA of IRIS dataset)
plt.show()可以看到3种类型的数据是一簇一簇的可以预料到KNN模型会有很好的表现。
降维后数据探索
explained_variance_降维后每个新特征向量上所带的信息量大小explained_variance_ratio_ 上面那个的百分比
#属性explained_variance_查看降维后每个新特征向量上所带的信息量大小可解释性方差的大小
pca.explained_variance_
#属性explained_variance_ratio查看降维后每个新特征向量所占的信息量占原始数据总信息量的百分比
#又叫做可解释方差贡献率
pca.explained_variance_ratio_
#大部分信息都被有效地集中在了第一个特征上
pca.explained_variance_ratio_.sum()选择最好的n_components累积可解释方差贡献率曲线
当参数n_components中不填写任何值则默认返回min(X.shape)个特征一般来说样本量都会大于特征数目所以什么都不填就相当于转换了新特征空间但没有减少特征的个数。 可以通过查看转换了新特征空间后各个特征的占比。
import numpy as np
pca_line PCA().fit(X)
plt.plot([1,2,3,4],np.cumsum(pca_line.explained_variance_ratio_))
plt.xticks([1,2,3,4]) #这是为了限制坐标轴显示为整数
plt.xlabel(number of components after dimension reduction)
plt.ylabel(cumulative explained variance ratio)
plt.show()一般选转折点当n_components3时已经占比达到99%多了基本可以选择这个。
最大似然估计自选超参数 n_components除了输入整数还可以输入“mle”作为n_components的参数输入了让PCA用最大似然估计(maximum likelihoodestimation)自选超参数的方法
pca_mle PCA(n_componentsmle)
pca_mle pca_mle.fit(X)
X_mle pca_mle.transform(X)可以看得自动帮我们选择了降维到3.
按信息量占比选超参数
n_components还可以输入[0,1]的浮点数搭配svd_solverfull一起使用表示希望降维后的总解释性方差占比大于n_components指定的百分比即是说希望保留百分之多少的信息量。
pca_f PCA(n_components0.97,svd_solverfull) # 降维后的数据占比大于97%
pca_f pca_f.fit(X)
X_f pca_f.transform(X)原理
SVD可以找出一个新特征向量组成的n维空间 而这个n维空间就是奇异值分解后的右矩阵 V T ( n , n ) V^T(n,n) VT(n,n)原特征需要降到k维 降维后的特征矩阵 X d r ( m , k ) 原特征矩阵 X ( m , n ) ∗ V T [ : , k ] 降维后的特征矩阵X_{dr}(m,k)原特征矩阵X(m,n)*V^T[:,k] 降维后的特征矩阵Xdr(m,k)原特征矩阵X(m,n)∗VT[:,k] k就是n_components是我们降维后希望得到的维度。若X为(m,n)的特征矩阵 就是结构为(n,n)的矩阵取这个矩阵的前k行进行切片即将V转换为结构为(k,n)的矩阵。而 V ( k , n ) T V_{(k,n)}^T V(k,n)T与原特征矩阵X相乘即可得到降维后的特征矩阵X_dr。这是说奇异值分解可以不计算协方差矩阵等等结构复杂计算冗长的矩阵就直接求出新特征空间和降维后的特征矩阵。
sklearn将降维流程拆成了两部分一部分是计算特征空间V由奇异值分解完成另一部分是映射数据和求解新特征矩阵由主成分分析完成实现了用SVD的性质减少计算量却让信息量的评估指标是方差具体流程如下图 在sklearn中矩阵U和Σ虽然会被计算出来同样也是一种比起PCA来说简化非常多的数学过程不产生协方差矩阵但完全不会被用到也无法调取查看或者使用因此我们可以认为U和Σ在fit过后就被遗弃了。奇异值分解追求的仅仅是V只要有了V就可以计算出降维后的特征矩阵。在transform过程之后fit中奇异值分解的结果除了V(k,n)以外就会被舍弃而V(k,n)会被保存在属性components_ 当中可以调用查看。
PCA(2).fit(X).components_ # (k,n) V矩阵
PCA(2).fit(X).components_.shape理解V(k,n)是新特征空间是我们要将原始数据进行映射的那些新特征向量组成的矩阵。用它来 计算新的特征矩阵。
可以通过图像的降维来理解 1导入库和数据集
from sklearn.datasets import fetch_lfw_people # 人脸数据
from sklearn.decomposition import PCA
import matplotlib.pyplot as plt
import numpy as npfaces fetch_lfw_people(data_home ../pca/ ,download_if_missingFalse, min_faces_per_person60) #60是每个人最少提取60张直接下载会报错forbidden403直接自己下载 报错403 Forbidden 自己下载 https://pan.baidu.com/s/1J9lUvosuGJp6bLADzPN6aQ 提取码jqxx 解压后放入 2查看一下数据 随便查看一下是什么样的图片
import matplotlib.pyplot as plt
fig, axes plt.subplots(4,8,figsize(8,4),subplot_kw{xticks:[],yticks:[]} # 不要显示坐标)
#填充图像
for i, ax in enumerate(axes.flat):ax.imshow(faces.images[i,:,:],cmapgray #选择色彩的模式)3降维降到150维
X faces.data
pca PCA(150).fit(X)
V pca.components_查看要映射的矩阵V的信息
fig, axes plt.subplots(3,8,figsize(8,4),subplot_kw {xticks:[],yticks:[]})
for i, ax in enumerate(axes.flat):ax.imshow(V[i,:].reshape(62,47),cmapgray)比起降维前的数据新特征空间可视化后的人脸非常模糊这是因为原始数据还没有被映射到特征空间中。但是可以看出整体比较亮的图片获取的信息较多整体比较暗的图片却只能看见黑漆漆的一块。
将降维后矩阵用inverse_transform返回原空间
X_inverse pca.inverse_transform(X_dr)
fig, ax plt.subplots(2,10,figsize(10,2.5),subplot_kw{xticks:[],yticks:[]})
#现在我们的ax中是2行10列第一行是原数据第二行是inverse_transform后返回的数据
#所以我们需要同时循环两份数据即一次循环画一列上的两张图而不是把ax拉平
for i in range(10):ax[0,i].imshow(faces.images[i,:,:],cmapbinary_r)ax[1,i].imshow(X_inverse[i].reshape(62,47),cmapbinary_r)可以看得并不能完全复原降维不是完全可逆的。
小结 PCA对手写数字数据集的降维
导入库
from sklearn.decomposition import PCA # pca降维
from sklearn.ensemble import RandomForestClassifier as RFC # 随机森林
from sklearn.model_selection import cross_val_score # 交叉验证
import matplotlib.pyplot as plt # 画图
import pandas as pd
import numpy as np数据处理
data pd.read_csv(./digit recognizor.csv)
X data.iloc[:,1:]
y data.iloc[:,0]
X.shape784维数据
画累计方差贡献率曲线找最佳降维后维度的范围
pca_line PCA().fit(X)
plt.figure(figsize[20,5])
plt.plot(np.cumsum(pca_line.explained_variance_ratio_))
plt.xlabel(number of components after dimension reduction)
plt.ylabel(cumulative explained variance ratio)
plt.show()转折点在100前面缩小范围重新画学习曲线
score []
for i in range(1,101,10):X_dr PCA(i).fit_transform(X)once cross_val_score(RFC(n_estimators10,random_state0),X_dr,y,cv5).mean()score.append(once)
plt.figure(figsize[20,5])
plt.plot(range(1,101,10),score)
plt.show()20很明显的一个转折点再次缩小范围
score []
for i in range(10, 25):X_dr PCA(i).fit_transform(X)once cross_val_score(RFC(n_estimators10,random_state0),X_dr,y,cv5).mean()score.append(once)
plt.figure(figsize[20,5])
plt.plot(range(10, 25),score)
plt.show()最佳点21
验证
X_dr PCA(21).fit_transform(X)
cross_val_score(RFC(n_estimators10,random_state0),X_dr,y,cv5).mean()可以再调一调n_estimators
cross_val_score(RFC(n_estimators100,random_state0),X_dr,y,cv5).mean()也可以试试其他模型KNN
from sklearn.neighbors import KNeighborsClassifier as KNN
cross_val_score(KNN(),X_dr,y,cv5).mean()可以看到由原来的七百多维降到21维后准确率还能有90%多效果非常不错最高的达96%。