线性回归
由于监督学习由目标或结果变量(或因变量)组成,其将从给定的一组预测变量(自变量)预测。使用这些变量集,我们生成一个将输入映射到所需输出的函数。训练过程一直持续到模型在训练数据上达到所需的准确度。
因此,有许多监督学习算法的例子,所以在这种情况下我想关注线性回归
线性回归用于根据连续变量估算实际值(房屋成本,看涨期权,总销售额等)。在这里,我们通过拟合最佳线来建立独立变量和因变量之间的关系。该最佳拟合线称为回归线,并由线性方程 Y = a * X + b 表示。
理解线性回归的最佳方法是重温这种童年经历。让我们说,你问一个五年级的孩子,通过增加体重的顺序来安排他们班上的人,而不是问他们的体重! 你觉得孩子会怎么做?他/她可能会在人的身高和体型上进行(视觉分析),并使用这些可见参数的组合进行排列。
这是现实生活中的线性回归! 孩子实际上已经发现高度和构建将通过关系与权重相关联,这看起来像上面的等式。
在这个等式中:
Y – Dependent Variable
a – Slope
X – Independent variable
b – Intercept
这些系数 a 和 b 是基于最小化数据点和回归线之间的距离的平方差的总和而导出的。
请看下面的例子。这里我们已经确定了具有线性方程 y = 0.2811x + 13.9 的最佳拟合线。现在使用这个等式,我们可以找到重量,知道一个人的身高。
线性回归主要有两种类型:简单线性回归和多元线性回归。简单线性回归的特征在于一个独立变量。并且,多元线性回归(顾名思义)的特征是多个(超过 1 个)自变量。在找到最佳拟合线时,你可以拟合多项式或曲线回归。这些被称为多项式或曲线回归。
只是暗示在 Python 中实现线性回归
#Import Library
#Import other necessary libraries like pandas, numpy...
from sklearn import linear_model
#Load Train and Test datasets
#Identify feature and response variable(s) and values must be numeric and numpy arrays
x_train=input_variables_values_training_datasets
y_train=target_variables_values_training_datasets
x_test=input_variables_values_test_datasets
# Create linear regression object
linear = linear_model.LinearRegression()
# Train the model using the training sets and check score
linear.fit(x_train, y_train)
linear.score(x_train, y_train)
#Equation coefficient and Intercept
print('Coefficient: \n', linear.coef_)
print('Intercept: \n', linear.intercept_)
#Predict Output
predicted= linear.predict(x_test)
我已经提供了一些关于理解监督学习挖掘线性回归算法以及一段 Python 代码的一瞥。