在本教程中,我们将使用 Python 编程实现回归分析和最佳拟合线
简介
回归分析是预测分析的最基本形式。
在统计学中,线性回归是一种对标量值与一个或多个解释变量之间的关系进行建模的方法。
在机器学习中,线性回归是一种监督算法。这种算法根据自变量预测目标值。
有关线性回归和回归分析的更多信息
在线性回归/分析中,目标是真实的或连续的值,例如工资、BMI等。它通常用于预测因变量和一堆自变量之间的关系。这些模型通常拟合线性方程,但是,还有其他类型的回归,包括高阶多项式。
在对数据进行线性模型拟合之前,有必要检查数据点之间是否存在线性关系。这从他们的散点图中可以明显看出。算法/模型的目标是找到最佳拟合线。
在本文中,我们将探讨线性回归分析及其使用 C++ 的实现。
线性回归方程的形式为 Y = c + mx ,其中 Y 是目标变量,X 是自变量或解释参数/变量。 m 是回归线的斜率,c 是截距。由于这是一个二维回归任务,因此模型会在训练期间尝试找到最佳拟合线。不必所有点都精确地排在同一条线上。有些数据点可能位于线上,有些则分散在线上。直线和数据点之间的垂直距离是残差。根据该点是位于该线的下方还是上方,该值可以为负值,也可以为正值。残差是直线与数据拟合程度的度量。该算法是连续的,以最小化总残差。
每个观测值的残差是 y(因变量)的预测值与 y 的观测值之间的差
$$mathrm{残差: =: 实际: y: 值:−:预测: y: 值}$$
$$mathrm{ri:=:yi:−:y'i}$$
评估线性回归模型性能的最常见指标称为均方根误差或 RMSE。基本思想是衡量模型的预测与实际观测值相比有多糟糕/错误。
因此,高 RMSE 是“坏”,低 RMSE 是“好”
RMSE 误差为
$$mathrm{RMSE:=:sqrt{frac{sum_i^n=1:(这个:-:这个')^2}{n}}}$$ p>
RMSE 是所有残差平方均值的根。
使用Python实现
示例
# Import the libraries
import numpy as np
import math
import matplotlib.pyplot as plt
from sklearn.linear_model import LinearRegression
from sklearn.metrics import mean_squared_error
# Generate random data with numpy, and plot it with matplotlib:
ranstate = np.random.RandomState(1)
x = 10 * ranstate.rand(100)
y = 2 * x - 5 + ranstate.randn(100)
plt.scatter(x, y);
plt.show()
# Creating a linear regression model based on the positioning of the data and Intercepting, and predicting a Best Fit:
lr_model = LinearRegression(fit_intercept=True)
lr_model.fit(x[:70, np.newaxis], y[:70])
y_fit = lr_model.predict(x[70:, np.newaxis])
mse = mean_squared_error(y[70:], y_fit)
rmse = math.sqrt(mse)
print("Mean Square Error : ",mse)
print("Root Mean Square Error : ",rmse)
# Plot the estimated linear regression line using matplotlib:
plt.scatter(x, y)
plt.plot(x[70:], y_fit);
plt.show()
登录后复制
输出
Mean Square Error : 1.0859922470998231 Root Mean Square Error : 1.0421095178050257
登录后复制
结论
回归分析是一种非常简单但功能强大的技术,用于机器学习和统计中的预测分析。这个想法在于其简单性以及独立变量和目标变量之间的潜在线性关系。
以上就是使用Python进行回归分析和最佳拟合直线的详细内容,更多请关注每日运维网(www.mryunwei.com)其它相关文章!