随机森林算法是一种集成技术,能够使用多个决策树和一种称为Bootstrap和聚合的技术来执行回归和分类任务。这背后的基本思想是结合多个决策树来确定最终输出,而不是依赖于单个决策树。
机器学习中的随机森林
随机森林产生大量分类树。将输入向量放在森林中的每棵树下,以根据输入向量对新对象进行分类。每棵树都分配了一个分类,我们可以将其称为“投票”,最终选择最高票数的分类。
以下阶段将帮助我们了解随机森林算法的工作原理。
第1步:首先从数据集中选择随机样本。
第2步:对于每个样本,该算法将创建一个决策树。然后将获得每个决策树的预测结果。
第3步:将对这一步中的每个预期结果进行投票。
第4步:最后选择得票最多的预测结果作为最终的预测结果。
随机森林方法具有以下优点
- 通过平均或整合不同决策树的输出,它解决了过度拟合的问题。
- 对于范围广泛的数据项,随机森林比单个决策树表现更好。
- 即使缺少大量数据,随机森林算法也能保持高精度。
随机森林的特点
以下是随机森林算法的主要特征:
随机森林有多个决策树作为基础学习模型。我们从数据集中随机执行行采样和特征采样,形成每个模型的样本数据集。这部分称为引导程序。
如何使用随机森林回归技术
Python实现随机森林算法流程
第1步:导入所需的库。
import numpy as np
import matplotlib.pyplot as plt
import pandas as pd
登录后复制
第2步:导入并打印数据集
ata=pd.read_csv('Salaries.csv')
print(data)
登录后复制
第3步:从数据集中选择所有行和第1列到x,选择所有行和第2列作为y
x=df.iloc[:,:-1]#”:”表示将选择所有行,“:-1”表示将忽略最后一列
y=df.iloc[:,-1:]#”:”表示它将选择所有行,“-1:”表示它将忽略除最后一列之外的所有列
#“iloc()”函数使我们能够选择数据集的特定单元格,也就是说,它帮助我们从数据框或数据集的一组值中选择属于特定行或列的值。
第4步:将随机森林回归器拟合到数据集
from sklearn.ensemble import RandomForestRegressor
regressor=RandomForestRegressor(n_estimators=100,random_state=0)
regressor.fit(x,y)
登录后复制
第5步:预测新结果
Y_pred=regressor.predict(np.array([6.5]).reshape(1,1))
登录后复制
第6步:可视化结果
X_grid=np.arrange(min(x),max(x),0.01)
X_grid=X_grid.reshape((len(X_grid),1))
plt.scatter(x,y,color='blue')
plt.plot(X_grid,regressor.predict(X_grid),
color='green')
plt.title('Random Forest Regression')
plt.xlabel('Position level')
plt.ylabel('Salary')
plt.show()
登录后复制
以上就是随机森林算法原理及实际应用的Python示例(带完整代码)的详细内容,更多请关注每日运维网(www.mryunwei.com)其它相关文章!