Python 官方文档:入门教程 => 点击学习
可以看看这个哦python入门:Anaconda和Jupyter notebook的安装与使用_菜菜笨小孩的博客-CSDN博客 如果你学会了python 可以看看matlab的哦 主成分分析(PCA)及其可视化——matlab_菜菜笨小孩
可以看看这个哦python入门:Anaconda和Jupyter notebook的安装与使用_菜菜笨小孩的博客-CSDN博客
如果你学会了python 可以看看matlab的哦
主成分分析(PCA)及其可视化——matlab_菜菜笨小孩的博客-CSDN博客
目录
主成分分析是利用降维的思想,在损失很少信息的前提下把多个指标转化为几个综合指标的多元统计方法。通常把转化生成的综合指标称之为主成分,其中每个主成分都是原始变量的线性组合,且各个主成分之间互不相关,这就使得主成分比原始变量具有某些更优越的性能。这样在研究复杂问题时就可以只考虑少数几个主成分而不至于损失太多信息,从而更容易抓住主要矛盾,揭示事物内部变量之间的规律性,同时使问题得到简化,提高分析效率。
主成分分析正是研究如何通过原来变量的少数几个线性组合来解释原来变量绝大多数信息的一种多元统计方法。
1.根据研究问题选取初始分析变量;
2.根据初始变量特性判断由协方差阵求主成分还是由相关阵求主成分(数据标准化的话需要用系数相关矩阵,数据未标准化则用协方差阵);
3.求协差阵或相关阵的特征根与相应标准特征向量;
4.判断是否存在明显的多重共线性,若存在,则回到第一步;
5.主成分分析的适合性检验
6.得到主成分的表达式并确定主成分个数,选取主成分;
7.结合主成分对研究问题进行分析并深入研究。
一组数据是否可以用主成分分析,必须做适合性检验。可以用球形检验和KMO统计量检验。(1)球形检验(Bartlett)
球形检验的假设:
H0:相关系数矩阵为单位阵(即变量不相关)
H1:相关系数矩阵不是单位阵(即变量间有相关关系)
KMO统计量比较样本相关系数与样本偏相关系数,它用于检验样本是否适于作主成分分析。
KMO的值在0,1之间,该值越大,则样本数据越适合作主成分分析和因子分析。一般要求该值大于0.5,方可作主成分分析或者相关分析。
Kaiser在1974年给出了经验原则:
0.9以上 适合性很好
0.8~0.9 适合性良好
0.7~0.8 适合性中等
0.6~0.7 适合性一般
0.5~0.6 适合性不好
0.5以下 不能接受的
pip instal pandas
numpy
pip install numpy
matplotlib
pip install matplotlib
数据集aa.xls - 蓝奏云 不能直接分享csv文件
导入数据处理和分析所需要的库:
# 数据处理import pandas as pdimport numpy as np# 绘图import seaborn as snsimport matplotlib.pyplot as plt
df = pd.read_csv(r"D:\桌面\aa.csv", encoding='gbk', index_col=0).reset_index(drop=True)df
运行结果:
检验总体变量的相关矩阵是否是单位阵(相关系数矩阵对角线的所有元素均为1,所有非对角线上的元素均为零);即检验各个变量是否各自独立。
# Bartlett's球状检验from factor_analyzer.factor_analyzer import calculate_bartlett_sphericitychi_square_value, p_value = calculate_bartlett_sphericity(df)print(chi_square_value, p_value)
运行结果:
检查变量间的相关性和偏相关性,取值在0-1之间;KOM统计量越接近1,变量间的相关性越强,偏相关性越弱,因子分析的效果越好。
# KMO检验# 检查变量间的相关性和偏相关性,取值在0-1之间;KOM统计量越接近1,变量间的相关性越强,偏相关性越弱,因子分析的效果越好。# 通常取值从0.6开始进行因子分析from factor_analyzer.factor_analyzer import calculate_kmokmo_all, kmo_model = calculate_kmo(df)print(kmo_all)
运行结果:
用到了 preprocessing 库
怎么导入:
from sklearn import preprocessing
标准化代码:
df = preprocessing.scale(df)df
结果:
为了方面下面引用,就和协方差阵的赋值符号一样了!!
covX = np.around(np.corrcoef(df.T),decimals=3)covX
运行结果:
featValue, featVec= np.linalg.eig(covX.T) #求解系数相关矩阵的特征值和特征向量featValue, featVec
运行结果:
def meanX(dataX): return np.mean(dataX,axis=0)#axis=0表示依照列来求均值。假设输入list,则axis=1average = meanX(df)average
运行结果:
m, n = np.shape(df)m,n
运行结果:
data_adjust = []avgs = np.tile(average, (m, 1))avgs
运行结果:
data_adjust = df - avgsdata_adjust
运行结果:
covX = np.cov(data_adjust.T) #计算协方差矩阵covX
运行结果:
featValue, featVec= np.linalg.eig(covX) #求解协方差矩阵的特征值和特征向量featValue, featVec
运行结果:
下面的做法不再区分标不标准化了,你上面用哪种都行
在这里仅拿为标准化做法的数据进行下面操作!!!
featValue = sorted(featValue)[::-1]featValue
运行结果:
# 同样的数据绘制散点图和折线图plt.scatter(range(1, df.shape[1] + 1), featValue)plt.plot(range(1, df.shape[1] + 1), featValue)# 显示图的标题和xy轴的名字# 最好使用英文,中文可能乱码plt.title("Scree Plot") plt.xlabel("Factors")plt.ylabel("Eigenvalue")plt.grid() # 显示网格plt.show() # 显示图形
运行结果:
gx = featValue/np.sum(featValue)gx
运行结果:
lg = np.cumsum(gx)lg
运行结果:
#选出主成分k=[i for i in range(len(lg)) if lg[i]<0.85]k = list(k)print(k)
运行结果:
selectVec = np.matrix(featVec.T[k]).TselectVe=selectVec*(-1)selectVec
运行结果:
finalData = np.dot(data_adjust,selectVec)finalData
运行结果:
# 绘图plt.figure(figsize = (14,14))ax = sns.heatmap(selectVec, annot=True, cmap="BuPu")# 设置y轴字体大小ax.yaxis.set_tick_params(labelsize=15)plt.title("Factor Analysis", fontsize="xx-large")# 设置y轴标签plt.ylabel("Sepal Width", fontsize="xx-large")# 显示图片plt.show()# 保存图片# plt.savefig("factorAnalysis", dpi=500)
运行结果:
# 数据处理import pandas as pdimport numpy as np# 绘图import seaborn as snsimport matplotlib.pyplot as pltdf = pd.read_csv(r"D:\桌面\aa.csv", encoding='gbk', index_col=0).reset_index(drop=True)print(df)# Bartlett's球状检验from factor_analyzer.factor_analyzer import calculate_bartlett_sphericitychi_square_value, p_value = calculate_bartlett_sphericity(df)print(chi_square_value, p_value)# KMO检验# 检查变量间的相关性和偏相关性,取值在0-1之间;KOM统计量越接近1,变量间的相关性越强,偏相关性越弱,因子分析的效果越好。# 通常取值从0.6开始进行因子分析from factor_analyzer.factor_analyzer import calculate_kmokmo_all, kmo_model = calculate_kmo(df)print(kmo_all)# #标准化# #所需库# from sklearn import preprocessing# #进行标准化# df = preprocessing.scale(df)# print(df)# #求解系数相关矩阵# covX = np.around(np.corrcoef(df.T),decimals=3)# print(covX)# #求解特征值和特征向量# featValue, featVec= np.linalg.eig(covX.T) #求解系数相关矩阵的特征值和特征向量# print(featValue, featVec)#不标准化#均值def meanX(dataX): return np.mean(dataX,axis=0)#axis=0表示依照列来求均值。假设输入list,则axis=1average = meanX(df)print(average)#查看列数和行数m, n = np.shape(df)print(m,n)#均值矩阵data_adjust = []avgs = np.tile(average, (m, 1))print(avgs)#去中心化data_adjust = df - avgsprint(data_adjust)#协方差阵covX = np.cov(data_adjust.T) #计算协方差矩阵print(covX)#计算协方差阵的特征值和特征向量featValue, featVec= np.linalg.eig(covX) #求解协方差矩阵的特征值和特征向量print(featValue, featVec)####下面没有区分########对特征值进行排序并输出 降序featValue = sorted(featValue)[::-1]print(featValue)#绘制散点图和折线图# 同样的数据绘制散点图和折线图plt.scatter(range(1, df.shape[1] + 1), featValue)plt.plot(range(1, df.shape[1] + 1), featValue)# 显示图的标题和xy轴的名字# 最好使用英文,中文可能乱码plt.title("Scree Plot")plt.xlabel("Factors")plt.ylabel("Eigenvalue")plt.grid() # 显示网格plt.show() # 显示图形#求特征值的贡献度gx = featValue/np.sum(featValue)print(gx)#求特征值的累计贡献度lg = np.cumsum(gx)print(lg)#选出主成分k=[i for i in range(len(lg)) if lg[i]<0.85]k = list(k)print(k)#选出主成分对应的特征向量矩阵selectVec = np.matrix(featVec.T[k]).TselectVe=selectVec*(-1)print(selectVec)#主成分得分finalData = np.dot(data_adjust,selectVec)print(finalData)#绘制热力图plt.figure(figsize = (14,14))ax = sns.heatmap(selectVec, annot=True, cmap="BuPu")# 设置y轴字体大小ax.yaxis.set_tick_params(labelsize=15)plt.title("Factor Analysis", fontsize="xx-large")# 设置y轴标签plt.ylabel("Sepal Width", fontsize="xx-large")# 显示图片plt.show()# 保存图片# plt.savefig("factorAnalysis", dpi=500)
几经周转终于完成了matlab和Python的主成分分析,也学到了很多,也体会到了完成时的成就感
本文中遇到的问题,矩阵相乘,只能两两相乘,索引方式区别于matlab,但也有很多库类似,比如 cumsum python需调用numpy库使用,等等,如果本文有错误请大家多多指正,谢谢!!!
来源地址:https://blog.csdn.net/qq_25990967/article/details/121366143
--结束END--
本文标题: 主成分分析(PCA)及其可视化——python
本文链接: https://lsjlt.com/news/420655.html(转载时请注明来源链接)
有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341
2024-03-01
2024-03-01
2024-03-01
2024-02-29
2024-02-29
2024-02-29
2024-02-29
2024-02-29
2024-02-29
2024-02-29
回答
回答
回答
回答
回答
回答
回答
回答
回答
回答
0