10. 回归方法综合应用练习#

10.1. 介绍#

本次挑战将会结合前面学习到的相关回归分析方法,完成一个多元回归分析任务。同时,我们将结合 NumPy,scikit-learn,SciPy,statsmodels 等库,复习不同方法的实现及应用。

10.2. 知识点#

  • 一元线性回归

  • 多元线性回归

  • 假设检验

挑战使用《An Introduction to Statistical Learning》书中提供的 Advertising 示例数据集用于练习。该书是统计学习经典著作,有兴趣的话可以从作者网站 免费下载阅读

首先,我们加载并预览该数据集。

import pandas as pd

data = pd.read_csv(
    "https://cdn.aibydoing.com/hands-on-ai/files/Advertising.csv",
    index_col=0,
)
data.head()
TV Radio Newspaper Sales
1 230.1 37.8 69.2 22.1
2 44.5 39.3 45.1 10.4
3 17.2 45.9 69.3 9.3
4 151.5 41.3 58.5 18.5
5 180.8 10.8 58.4 12.9

数据集包含 4 列,共 200 行。每个样本代表某超市销售相应单位件商品所需要支出的广告费用。以第一行为例,表示该超市平均销售 22.1 件商品,需要支出的电视广告费用,广播广告费用以及报刊广告费用为:230.1 美元,37.8 美元和 69.2 美元。

所以,本次挑战将前 3 列视作特征,最后一列视作目标值。

Exercise 10.1

挑战:使用 SciPy 提供的普通最小二乘法分别计算 3 个特征与目标之间的一元线性回归模型拟合参数。

规定:需使用 scipy.optimize.leastsq 函数完成计算,并直接输出函数结果无需处理。

import numpy as np
from scipy.optimize import leastsq

## 代码开始 ### (≈ 10 行代码)
params_tv = None
params_radio = None
params_newspaper = None
## 代码结束 ###

params_tv[0], params_radio[0], params_newspaper[0]

期望输出

((array([7.03259354, 0.04753664]),
 (array([9.31163807, 0.20249578]),
 (array([12.35140711, 0.0546931]))

接下来,我们根据最小二乘法求得的结果,将拟合直线绘制到原分布散点图中。

Exercise 10.2

挑战:以横向子图的方式绘制 3 个特征分别与目标之间的散点图,并添加线性拟合直线。

规定:线性拟合直线开始于散点图中最小横坐标值,结束于最大横坐标值,并以红色显示。

from matplotlib import pyplot as plt

%matplotlib inline

## 代码开始 ### (≈ 10 行代码)


## 代码结束 ###

期望输出

image

接下来,我们尝试建立包含全部特征的多元线性回归模型。

\[ y = \omega_0 + \omega_1 * tv + \omega_2 * radio + \omega_3 * newspaper \]

Exercise 10.3

挑战:使用 scikit-learn 提供的线性回归方法建立由 3 个特征与目标组成的多元线性回归模型。

规定:仅能使用 scikit-learn 提供的 sklearn.linear_model.LinearRegression 类。

from sklearn.linear_model import LinearRegression

## 代码开始 ### (≈ 4 行代码)
model = None
## 代码结束 ###

model.coef_, model.intercept_  # 返回模型自变量系数和截距项

期望输出

(array([ 0.04576465,  0.18853002, -0.00103749]), 2.9388893694594067)

接下来,我们希望对多元线性回归模型进行检验。使用 statsmodels 库提供的相关方法来完成拟合优度检验和变量显著性检验。

Exercise 10.4

挑战:使用 statsmodels 库提供的相关方法来完成上面多元回归模型的拟合优度检验和变量显著性检验。

提示:你可以使用 statsmodels.api.sm.OLSstatsmodels.formula.api.smf,后一种实验未涉及,需自行了解学习。

import statsmodels.formula.api as smf

## 代码开始 ### (≈ 3 行代码)
results = None
## 代码结束 ###

results.summary2()  # 输出模型摘要

期望输出

Model: OLS Adj. R-squared: 0.896
Dependent Variable: sales AIC: 780.3622
Date: BIC: 793.5555
No. Observations: 200 Log-Likelihood: -386.18
Df Model: 3 F-statistic: 570.3
Df Residuals: 196 Prob (F-statistic): 1.58e-96
R-squared: 0.897 Scale: 2.8409
Coef. Std.Err. t P>|t| [0.025 0.975]
Intercept 2.9389 0.3119 9.4223 0.0000 2.3238 3.5540
tv 0.0458 0.0014 32.8086 0.0000 0.0430 0.0485
radio 0.1885 0.0086 21.8935 0.0000 0.1715 0.2055
newspaper -0.0010 0.0059 -0.1767 0.8599 -0.0126 0.0105
Omnibus: 60.414 Durbin-Watson: 2.084
Prob(Omnibus): 0.000 Jarque-Bera (JB): 151.241
Skew: -1.327 Prob(JB): 0.000
Kurtosis: 6.332 Condition No.: 454

我们可以看到,这里得到的回归拟合系数和上文 scikit-learn 计算结果一致。于此同时,tv 和 radio 的 P 值接近于 0 [精度],而 newspaper 的 P 值相对较大。我们可以认为 tv 和 radio 通过了变量显著性检验,而 newspaper 则未通过。实际上,你可以尝试去掉 newspaper 特征之后重新计算多元线性回归结果。

Model: OLS Adj. R-squared: 0.896
Dependent Variable: sales AIC: 778.3941
Date: BIC: 788.2891
No. Observations: 200 Log-Likelihood: -386.20
Df Model: 2 F-statistic: 859.6
Df Residuals: 197 Prob (F-statistic): 4.83e-98
R-squared: 0.897 Scale: 2.8270
Coef. Std.Err. t P>|t| [0.025 0.975]
Intercept 2.9211 0.2945 9.9192 0.0000 2.3403 3.5019
tv 0.0458 0.0014 32.9087 0.0000 0.0430 0.0485
radio 0.1880 0.0080 23.3824 0.0000 0.1721 0.2038
Omnibus: 60.022 Durbin-Watson: 2.081
Prob(Omnibus): 0.000 Jarque-Bera (JB): 148.679
Skew: -1.323 Prob(JB): 0.000
Kurtosis: 6.292 Condition No.: 425

上面是去掉 newspaper 特征之后重新计算的结果,你可以发现包含和未包含 newspaper 的多元线性回归模型 \(R^2\) 值均为 0.896。这也就印证了该特征对于反映目标数值变化并无太大帮助。你可以尝试去除其余两个特征之一后,再查看 \(R^2\) 拟合优度值的变化。