统计学中,线性回归(Linear Regression)是利用称为线性回归方程的最小平方函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。
简单对来说就是用来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法。
回归分析中,只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。
一元线性回归分析法的数学方程:
y = ax + b
- y 是因变量的值。
- x 是自变量的值。
- a 与 b 为一元线性回归方程的参数。
接下来我们可以创建一个人体身高与体重的预测模型:
- 1、收集样本数据:身高与体重。
- 2、使用 lm() 函数来创建一个关系模型。
- 3、从创建的模型中找到系数,并创建数学方程式。
- 4、获取关系模型的概要,了解平均误差即残差(估计值与真实值之差)。
- 5、使用 predict() 函数来预测人的体重。
准备数据
以下是人的身高与体重数据:
# 身高,单位 cm 151, 174, 138, 186, 128, 136, 179, 163, 152, 131 # 体重,单位 kg 63, 81, 56, 91, 47, 57, 76, 72, 62, 48
lm() 函数
在 R 中,你可以通过函数 lm() 进行线性回归。
lm() 函数用于创建自变量与因变量之间的关系模型。
lm() 函数语法格式如下:
lm(formula,data)
参数说明:
- formula - 一个符号公式,表示 x 和 y 之间的关系。
- data - 应用数据。
创建关系模型,并获取系数:
实例
# 样本数据 x