博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
多元线性回归
阅读量:5021 次
发布时间:2019-06-12

本文共 1300 字,大约阅读时间需要 4 分钟。

一般情况下,一个因变量是和多个自变量有关的,比如一个商品的价格和原料价格、加工方法、上市时间、品牌价值等有关,也就是多元线性,本节介绍如何用scikit-learn解决多元线性回归问题。

1、多元线性回归模型

方程:Y=Xβ 

求解多元线性回归问题就是求解β:

因为X不一定是方阵,所以不能直接β=X-1Y

两边同时乘以Xt,得到XtY=XtXβ

因为XtX是方阵,它的逆是(XtX)-1,所以两边同时乘(XtX)-1得到

(XtX)-1XtY=β

根据这个公式,我们自己设计一个例子,验证一下

设计二元一次方程:y=1+2*x1+3*x2=1*x0+2*x1+3*x2

取样本为(1,1,1),(1,1,2),(1,2,1),计算得y=(6,9,8)

注意:这里面常数项1相当于1*x0,只不过这里的x0永远取1

所以我们的

X = [[1,1,1],[1,1,2],[1,2,1]]

y = [[6],[9],[8]]

β =[1, 2, 3]^T;

代码如下:

1 from numpy.linalg import inv2 from numpy import dot, transpose3 X = [[1,1,1],[1,1,2],[1,2,1]]4 y = [[6], [9], [8]]5 print dot(inv(dot(transpose(X),X)), dot(transpose(X),y))6 print(dot(dot(inv(dot(transpose(X), X)), transpose(X)), y))
View Code
1 [[ 1.]2  [ 2.]3  [ 3.]]4 [[ 1.]5  [ 2.]6  [ 3.]]

这里面transpose是求转置,dot是求矩阵乘积,inv是求矩阵的逆。

也可以用numpy的最小二乘函数直接计算出β。

1 from numpy.linalg import lstsq2 print lstsq(X, y)[0]
1 [[ 1.]2  [ 2.]3  [ 3.]]

2、用scikit-learn求解多元线性回归

1 import numpy 2 from sklearn.linear_model import LinearRegression 3 X = [[1, 1, 1], [1, 1, 2], [1, 2, 1]] 4 y = [[6], [9], [8]] 5 model = LinearRegression() 6 model.fit(X, y)#训练模型 7 x2 = [[1, 3, 5]] 8 y2 = model.predict(x2) 9 print(type(y2), y2.shape)10 print(y2[0])
View Code

结果:

1 (
, (1, 1))2 [ 22.]

 正好:刚好y=1+2*x1+3*x2=1+2*3+3*5=22 

 

 

 

 

 

 

 

 

 

转载于:https://www.cnblogs.com/yuzhuwei/p/6536909.html

你可能感兴趣的文章
Mongodb简介
查看>>
ImportError: matplotlib requires dateutil
查看>>
用python制作训练集和测试集的图片名列表文本
查看>>
mysql集群搭建问题及解决方法集锦
查看>>
g++ -l的特殊用法
查看>>
以编程的方式调用Button的点击事件
查看>>
Mybatis还有这种操作?浅析为什么要看源码
查看>>
第五周作业续
查看>>
给标签元素设固定宽高,内部添加滚动条显示
查看>>
centos7 设置grub密码及单用户登录实例
查看>>
Linux分区介绍
查看>>
2018-2019-2 20165303《网络对抗技术》Exp9 Web安全基础
查看>>
SQL中join的用法
查看>>
JVM 堆内存溢出后,其他线程是否可继续工作
查看>>
SELinux的Docker安全性
查看>>
[BZOJ1208][HNOI2004]宠物收养所
查看>>
一些WebGL的资源
查看>>
Python杂技
查看>>
DataRowState & DataViewRowState
查看>>
微软HoloLens虚拟现实可以开发了。
查看>>