基于R语言实现LASSO回归分析

原文链接:http://tecdat.cn/?p=10997

模拟假数据集

 set.seed(0820)

n         <- 50
 p         <- 25
 beta      <- rep(0,p)
 beta\[1:5\] <- 1:5/5

X <- matrix(rnorm(n*p),n,p)
 X <- scale(X)

Xb <- X%*%beta
 Y <- X%*%beta+rnorm(n)
 Y <- Y-mean(Y)

plot(cor(X,Y),xlab="j",ylab="Cor(Y,X_j)",main="Sample correlations",cex=2)

标准最小二乘法

 summary(ols)
## 
## Call:

## 
## Residuals:
##      Min       1Q   Median       3Q      Max 
## -2.54540 -0.38971 -0.00738  0.49058  1.90900 
## 
## Coefficients:
##               Estimate Std. Error t value Pr(>|t|)    
## (Intercept) -3.914e-16  1.648e-01   0.000  1.00000    
## X1           6.020e-01  2.097e-01   2.871  0.00841 ** 
## X2           5.924e-01  2.013e-01   2.944  0.00709 ** 
## X3          -1.106e-01  2.290e-01  -0.483  0.63363    
## X4           1.117e+00  2.058e-01   5.427 1.42e-05 ***
## X5           1.234e+00  2.190e-01   5.633 8.46e-06 ***
## X6          -3.225e-01  2.322e-01  -1.389  0.17755    
## X7          -1.954e-01  2.150e-01  -0.909  0.37231    
## X8           1.466e-01  2.532e-01   0.579  0.56803    
## X9           4.678e-02  2.353e-01   0.199  0.84409    
## X10         -2.779e-01  2.151e-01  -1.292  0.20864    
## X11         -7.308e-02  2.553e-01  -0.286  0.77717    
## X12         -4.424e-02  2.642e-01  -0.167  0.86839    
## X13         -1.078e-01  2.101e-01  -0.513  0.61270    
## X14          3.000e-01  2.263e-01   1.326  0.19743    
## X15          2.396e-01  2.480e-01   0.966  0.34365    
## X16         -1.178e-01  2.285e-01  -0.515  0.61100    
## X17         -2.409e-01  2.280e-01  -1.057  0.30104    
## X18         -3.191e-01  2.396e-01  -1.332  0.19551    
## X19         -1.207e-01  2.372e-01  -0.509  0.61553    
## X20          1.721e-01  2.179e-01   0.790  0.43733    
## X21         -1.677e-02  2.144e-01  -0.078  0.93831    
## X22          3.706e-02  2.145e-01   0.173  0.86426    
## X23          3.233e-02  2.108e-01   0.153  0.87938    
## X24         -1.541e-01  2.343e-01  -0.658  0.51691    
## X25         -1.970e-01  1.965e-01  -1.002  0.32622    
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 1.166 on 24 degrees of freedom
## Multiple R-squared:  0.8416, Adjusted R-squared:  0.6767 
## F-statistic: 5.102 on 25 and 24 DF,  p-value: 7.861e-05

LASSO

``````
 plot(lasso)

使用BIC选择路径上的最佳点

##           df       MSE      bic
## Intercept  1 4.1174138 74.67329
##            2 3.8224639 74.86881
##            3 1.9171062 44.27691
##            4 1.9136899 48.09976
##            5 1.5118875 40.22806
##            6 1.3016560 36.65400
##            7 1.2693779 39.31051
##            8 1.2124870 40.92986
##            9 1.1814011 43.54326
##           10 1.1728179 47.09070
##           11 1.1016346 47.87201
##           12 1.0050559 47.19643
##           13 0.9867377 50.18875
##           14 0.9636054 52.91465
##           15 0.8686856 51.64164
##           16 0.7777734 50.02637
##           17 0.7700763 53.44111
##           18 0.7663544 57.11089
##           19 0.7510361 60.01336
##           20 0.7451598 63.53263
##           19 0.7196873 57.88151
##           20 0.7149486 61.46323
##           21 0.7141592 65.32002
##           20 0.7051259 60.77152
##           21 0.6875391 63.42065
##           22 0.6764241 66.51776
##           23 0.6739037 70.24313
##           24 0.6570954 72.89225
##           25 0.6564105 76.75213
##           26 0.6520870 80.33373

结果

 # beta真值
 
##  \[1\] 0.2 0.4 0.6 0.8 1.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0
## \[18\] 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0
 #使用最小二乘预测beta
 round(beta_ols,3)
##     X1     X2     X3     X4     X5     X6     X7     X8     X9    X10 
##  0.602  0.592 -0.111  1.117  1.234 -0.323 -0.195  0.147  0.047 -0.278 
##    X11    X12    X13    X14    X15    X16    X17    X18    X19    X20 
## -0.073 -0.044 -0.108  0.300  0.240 -0.118 -0.241 -0.319 -0.121  0.172 
##    X21    X22    X23    X24    X25 
## -0.017  0.037  0.032 -0.154 -0.197
 # LASSO预测beta
 round(beta_lasso,3)
##  \[1\]  0.238  0.238  0.000  0.900  0.786  0.000  0.000  0.000  0.000  0.000
## \[11\]  0.000  0.000  0.000  0.000  0.000  0.000  0.000  0.000  0.000  0.000
## \[21\]  0.000  0.000  0.000  0.000 -0.075
 #MSE - OLS
 mean((beta-beta_ols)^2)
## \[1\] 0.06204978
 #MSE - LASSO
 mean((beta-beta_lasso)^2)
## \[1\] 0.01795647


(0)

相关推荐

  • 【数据竞赛】Kaggle实战之单类别变量特征工程总结!

    作者:尘沙杰少.樱落.新峰.DOTA.谢嘉嘉 前言 在之前的文章中,我们已经介绍过部分类别特征编码的内容,此处,我们将所有的内容进行整合为一个系列,我们不罗列过多的知识点,重点介绍在kaggle过往几 ...

  • 回归模型评估指标

    回归模型的评估,核心是利用模型预测值与真实值之间的差值,常用的指标有以下几种 1. 平均绝对误差 Mean Absolute Error, 简称MAE, 公式如下 考虑到正负误差在求和时会出现抵消的情 ...

  • causalinference: 使用Python做因果推断

    python虽然与R一样都可以做数据分析,但是在计量方面较为薄弱,python更像是干脏活,清洗数据用的.现在慢慢的python也有一些在计量的包,比如causalinference,这个包可以做因果 ...

  • R语言用LASSO,adaptive LASSO预测通货膨胀时间序列

    原文链接:http://tecdat.cn/?p=22273 动机 如果你了解数据科学领域,你可能听说过LASSO.LASSO是一个对目标函数中的参数大小进行惩罚的模型,试图将不相关的变量从模型中排除 ...

  • R语言区间数据回归分析

    原文链接http://tecdat.cn/?p=14850 回归分析是一种十分常见的数据分析方法,通过观测数据确定变量间的相互关系.传统回归分析以点数据为研究对象,预测结果也是点数据,而真实数据往往在 ...

  • 数据挖掘:基于R语言的实战 | 第5章:聚类分析

    第5章我们继续来学习一种无监督的数据挖掘方法--聚类分析.通过聚类分析我们可以观察到数据是怎么聚集在一起的,还可以用来描述数据的分布情况.聚类分析的应用十分广泛,例如通过对客户聚类来对其进行细分以便为 ...

  • 数据挖掘:基于R语言的实战 | 第6章:线性模型与广义线性模型

    第6章给大家介绍实际场景中最常用的两种统计模型,线性模型和广义线性模型.本章首先在6.1节中介绍线性模型,然后在6.2节中介绍广义线性模型,在6.3节再介绍线性模型和广义线性模型中的变量选择.本章最后 ...

  • 数据挖掘:基于R语言的实战 | 第7章:神经网络的基本方法

    上一章我们简单介绍了有监督学习方法中最常用的线性模型和广义线性模型,第7章我们来认识一下神经网络的基本方法.本章先介绍了单个神经元和神经网络,然后介绍神经网络的训练方法,接着介绍提升模型泛化能力的一些 ...

  • 数据挖掘:基于R语言的实战 | 第9章:基于决策树的模型组合

      上一章我们学习了决策树模型,这一章我们继续学习几种基于决策树的模型组合,包括袋装决策树.梯度提升决策树.随机森林和贝叶斯可加回归树.本章的最后提供了在R语言中建立以上几种模型的案例.   9.1节 ...

  • R语言实战——线性回归分析和相关矩阵可视化

    多元回归分析 多元回归分析预测法,是指通过对两个或两个以上的自变量与一个因变量的相关分析,建立预测模型进行预测的方法.当自变量与因变量之间存在线性关系时,称为多元线性回归分析. 多元线性回归的适用条件 ...

  • R语言自适应LASSO 多项式回归、二元逻辑回归和岭回归应用分析

    原文链接:http://tecdat.cn/?p=21602 正则化(regularization) 正则化路径是在正则化参数lambda的值网格上计算套索LASSO或弹性网路惩罚的正则化路径.该算法 ...

  • R语言分段线性回归分析预测车辆的制动距离

    原文链接: http://tecdat.cn/?p=21557 分段回归( piecewise regression ),顾名思义,回归式是"分段"拟合的.其灵活用于响应变量随自变 ...