从实践的角度理解主成分分析

主成分分析是提高机器学习算法处理大量数据和特征的性能的最常用方法之一。然而,有时PCA可能太复杂,太技术化,甚至太乏味,无法正确理解基本原理,因此,我决定写这篇文章,以实际的方式阐明每一步,并易于初学者理解。

首先我们需要更好地理解为什么需要在机器学习中使用PCA:

  1. 去除噪声数据:有时在一个数据集中,有太多的数据需要分析,我们是否需要包括或删除它,以提高算法的性能。然而,使用PCA,它会过滤掉噪声数据,只留下突出的数据;
  2. 提高性能:通过从数据集中去除大量不相关的特征,将自动大大减少机器学习中的训练时间;
  3. 简化可视化:太多的特征迫使我们分析太多的图形,这些图形有时看起来很混乱,无论是对我们还是对客户来说,都是为了消化数据。通过去掉那些没有影响的特征,我们将能够简单地将数据可视化,并使其更易于理解;
  4. 减少过拟合:有许多发生过拟合仅仅是因为太多的特征。PCA显然有助于缓解这一问题。

实现

在本文中,我们通过下载的Kaggle数据集实现PCA(https://www.kaggle.com/tomk23/hr-dataset/download)。通过pandas的head函数,我们可以看到数据集的特征和数据如下:

数据清理

如我们所见,原始数据集由10个特征组成,还有一些离散数据。机器学习算法不能消化离散数据,我们需要将它们转换为有序数据。

对于PCA,同样的情况下,需要将销售和薪资特征转换为有序数据,如下所示:

data['salary'] = data['salary'].map( {'low': 1, 'medium': 2, 'high':3} ).astype(int)data['sales'] = data['sales'].map( {'accounting': 1, 'hr': 2, 'IT':3, 'management':4, 'marketing':5, 'product_mng':6, 'RandD':7, 'sales':8, 'support':9, 'technical':10} ).astype(int)

这将为我们提供一个没有任何离散数据的新数据集,如下所示:

如我们所见,left 特征是一个标签,因此,在接下来的几个步骤中,可以更方便地将其设置在数据列的最左侧,以便进行数据拆分。首先,我们需要将特征转换为列表,以便能够重新排列列。

columns = data.columns.tolist()

然后将left特征放到第一列。

columns.insert(0, columns.pop(columns.index('left')))

然后再次从列表形式转换为列。

data = data.reindex(columns= columns)

相关性矩阵

随后,我们可以通过相关性矩阵分析每个特征之间的相关性,相关矩阵可以通过以下seaborn库构建:

correlation = data.corr()plt.figure(figsize=(10,10))sns.heatmap(correlation, vmax=1, square=True,annot=True,cmap='viridis')plt.title('Correlation between features')

数据划分

由于left特征是一个标签,我们可以对数据集随机化,然后将数据拆分为X和Y,如下X为训练数据,y为标签数据:

X = data.iloc[:,1:10].valuesy = data.iloc[:,0].valuesX

训练数据如下:

现在我们有9个训练数据的特征:

数据标准化

现在我们已经进入了PCA的第一步,这是数据标准化,这是执行PCA之前的必要步骤。基本上,数据标准化的目的是通过使用平均值和标准差来均衡所有数据。

例如,1-A班的安迪在数学考试中得了80分,满分为100分,标准差为6分,而1-B班的海伦在数学考试中得了320分,因为她的老师用的是450分,标准差为68分。因此,为了了解谁的分数更高,我们用百分比来标准化分数,例如,安迪得到80%,海伦得到71%。这样,我们知道安迪的分数比海伦高。

在Python中,我们可以使用sklearn的StandardScaler函数对数据进行标准化,如下所示:

from sklearn.preprocessing import StandardScalerX_std = StandardScaler().fit_transform(X)

Sklearn的StandardScaler的原理是用平均值减去值,再除以标准差:

  • z: 标准化数据
  • x: 原始数据
  • µ:平均值
  • σ: 标准差值

平均值:

  • N: 数据数量

标准差:

现在,我们的数据集已经通过使用sklearn函数实现了标准化,输出如下:

协方差矩阵

在标准化之后,我们想再次找出每个特征之间的相关性。这可以通过使用以下公式来实现:

或者可以用如下Python代码:

mean_vec = np.mean(X_std)cov_mat = (X_std - mean_vec).T.dot((X_std - mean_vec)) / (X_std.shape[0]-1)print('Covariance matrix', cov_mat)

或者简单地使用Numpy的协方差函数:

print('NumPy covariance matrix:', np.cov(X_std.T))

如果两个代码将提供相同的输出:

求主分量的特征向量和特征值

既然我们通过协方差矩阵了解了每个特征之间的关系,就可以通过计算特征向量和特征值来确定它的主成分。

从上图理解,协方差矩阵被视为A,因此,可以使用下面的Numpy函数来确定特征向量和特征值:

eig_vals, eig_vecs = np.linalg.eig(cov_mat)print('Eigenvectors', eig_vecs)print('\nEigenvalues', eig_vals)

这两个矩阵都显示为:

特征值排序

既然已经找到了特征值和特征向量,我们需要对特征值进行排序,以确定哪个特征向量在数据集中最相关。首先,我们需要将每个特征值和特征向量组合成一列特征对:

eig_pairs = [(np.abs(eig_vals[i]), eig_vecs[:,i]) for i in range(len(eig_vals))]

之后,可以将特征对从最高值到最低值进行排序:

eig_pairs.sort(key=lambda x: x[0], reverse=True)

我们可以得到如下所示的有序特征值:

print('Sorted Eigenvalues:')for i in eig_pairs:    print(i[0])

确定主成分

现在我们可以从排序后的特征值中得到主成分。主成分的值,这是所谓的解释方差,表明如何突出一个特征。我们目前有9个不同的主成分,因此我们将产生9个不同的百分比方差。

解释方差可通过以下公式确定:

tot = sum(eig_vals)var_exp = [(i / tot)*100 for i in sorted(eig_vals, reverse=True)]

然后我们可以使用Matplotlib绘制出每个主成分的值:

with plt.style.context('bmh'):    plt.figure(figsize=(6, 4))    plt.bar(range(9), var_exp, alpha=0.5, align='center')    plt.ylabel('Explained Variance')    plt.xlabel('Principal components')    plt.tight_layout()

通过上面的图表,我们可以确定最大方差在20.5%左右。最后两个特征与其他特征相比影响比较小,因为它们的方差小于7.5%。因此,我们可以放弃这两个特征。

构造新矩阵

既然决定去掉最后两个特征,我们就可以构造只包含前7个特征的新矩阵。

PCA_matrix = np.hstack((eig_pairs[0][1].reshape(9,1),                       eig_pairs[1][1].reshape(9,1),                      eig_pairs[2][1].reshape(9,1),                       eig_pairs[3][1].reshape(9,1),                      eig_pairs[4][1].reshape(9,1),                       eig_pairs[5][1].reshape(9,1),                      eig_pairs[6][1].reshape(9,1),                    ))

然后利用点积法,利用Y=X·W建立新的特征空间。

Y = X_std.dot(PCA_matrix)

然后我们可以创建一个新的数据集,其中包含每个主成分的数据,包括如下标签:

principalDf = pd.DataFrame(data = Y , columns = ['principal component 1', 'principal component 2', 'principal component 3', 'principal component 4', 'principal component 5', 'principal component 6', 'principal component 7']) finalDf = pd.concat([principalDf,pd.DataFrame(y,columns = ['left'])], axis = 1)

这将为我们提供一个新的数据集,该数据集已通过PCA处理为:

结论

关于放弃多少特征,我们有很多选择,无论是放弃2个还是3个,甚至只留下2个特征。我们已经明白,至少第一个特征是最突出的一个。因此,通过机器学习算法,如线性回归、随机森林等,处理这类数据的速度要比处理整个数据集快得多。

希望这篇文章能帮助你更多的了解PCA,谢谢阅读。

(0)

相关推荐

  • 使用PCA算法对原始数据降维

    PCA是Principal components analysis的简称,叫做主成分分析,是使用最广泛的降维算法之一.所谓降维,就是降低特征的维度,最直观的变化就是特征的个数变少了.当然,不同于特征筛 ...

  • Python使用三种方法实现PCA算法

    主成分分析(PCA) vs 多元判别式分析(MDA) PCA和MDA都是线性变换的方法,二者关系密切.在PCA中,我们寻找数据集中最大化方差的成分,在MDA中,我们对类间最大散布的方向更感兴趣. 一句 ...

  • 协方差矩阵的意义及其应用,线性代数和各种应用之间的一个联系

    数学的魅力在于,简单的模型可以做伟大的事情." 现代数据科学中并不缺乏花哨的算法和技术.技术很容易学习,但也很容易落后.然而,从长远来看,数学的基础可以使人受益.协方差矩阵是一个简单而有用的 ...

  • 从中医角度理解“肝胆相照”

    有个很常用的成语叫"肝胆相照",用来比喻人与人之间真心诚意相待,我引申到中医学中,则是肝主谋略,胆主决断,肝胆互为表里,紧密相联,同为人体重要的器官.肝与胆像是生活中的好友,相互照 ...

  • 膀胱癌的中医角度理解以及辨证治疗思路

    膀胱癌是指发生在膀胱黏膜上的恶性肿瘤.是泌尿系统最常见的恶性肿瘤,也是全身十大常见肿瘤之一.占我国泌尿生殖系肿瘤发病率的第一位,而在西方其发病率仅次于前列腺癌,居第2位. 要认识膀胱癌,首先要了解膀胱 ...

  • 从影像学角度理解胫骨平台骨折三柱分型,骨科医生轻松识别损伤形态

    最近的骨外科文献强调三柱分型的方法来理解和指导胫骨平台骨折的治疗.这个于2010年发表的三柱分型依赖于术前CT图像来描述胫骨平台内侧柱.外侧柱和后侧柱的损伤,并改善了复杂胫骨平台骨折(冠状面骨折和后平 ...

  • MVP方法与实践:如何理解企业战略?

    企业即组织,组织建立在组织认同上,组织认同体现在组织愿景.使命.价值观.因此,制定企业战略首先要定义组织愿景.使命及核心价值观.它们是企业的"魂",不仅定义了组织期望实现的目标,还 ...

  • 干货|从系统角度理解设计工程师

    感谢此次EEWORLD组织的电源学习活动,跟着大牛重温大学的电源理论,收获满满,同时感觉自己还有很多需要继续学习.   各位同学,电源行业从业有一段时间.在电源项目开展过程中,我们会跟甲方.同行.供应 ...

  • 综述 | Development:从单细胞的角度理解胰腺β细胞的生成和再生(国人作品)

    编译:夕夕,编辑:十九.江舜尧. 原创微文,欢迎转发转载. 导读 了解β细胞生成和再生的背后机制是治疗糖尿病的关键.然而,传统的基于细胞群的研究方法在定义β细胞分化和反分化过程及相关的调节机制方面存在 ...

  • 如何从成交量的角度理解烂板出妖股这一理论

    我想很多人听到过所谓的烂板出妖股,以及有量才有价,之类的话.但很多人并没有深入的思考和理解,为什么烂板出妖股?这个烂板和成交量的关系?以及多大才算"有量"? 烂板的真实含义 不管是 ...

  • 从股票打板的角度理解为什么行情有时是一个龙头引领,有时是多龙头引领,如龙一龙二(图解)

    题材多龙头是指一个题材概念引爆时,涉及概念股呈现出不少于一只股票领涨的现象,盘面的直观表象是多龙戏水,多只概念股领涨市场,身后尾随一群跟风股. 常言道,一山不容二虎,卧榻之旁岂容他人鼾睡,在股市里,题 ...

  • 数字孪生:从价值角度理解概念

    最近,某位专家去一家企业,把数字孪生讲得头头是道,企业的人却普遍表示没有听懂.这种现象并不奇怪:对学术界来说,原理清楚就清楚了:但对企业界来说,则需要把创造价值的逻辑讲清楚.讲不清楚价值,就是没有道理 ...