例子:銷售額x與流通費率y
xx = c(1.5,2.8,4.5,7.5,10.5,13.5,15.1,16.5,19.5,22.5,24.5,26.5)
yy = c(7.0,5.5,4.6,3.6,2.9,2.7,2.5,2.4,2.2,2.1,1.9,1.8)
tt<-data.frame(xx,yy)
names(tt)<-c("x","y")
plot(tt$x,tt$y)
# 直線回歸(r2值不理想)
lm.1=lm(y~x,data=tt)
summary(lm.1)
# 多項式回歸,假設用二次多項式方程y=a+bx+cx2
lm.2=lm(y~x+i(x^2),data=tt)
summary(lm.2)
plot(tt$x,tt$y)
lines(tt$x,fitted(lm.2))
# 對數法,y=a+blogx
lm.log=lm(y~log(x),data=tt)
summary(lm.log)
plot(tt$x,tt$y)
lines(tt$x,fitted(lm.log))
# 指數法,y=aebx
lm.exp=lm(log(y)~x,data=tt)
summary(lm.exp)
plot(tt$x,tt$y)
lines(tt$x,exp(fitted(lm.exp)))
# 冪函式法,y=axb
lm.pow=lm(log(y)~log(x),data=tt)
summary(lm.pow)
plot(tt$x,tt$y)
lines(tt$x,exp(fitted(lm.pow)))
對比以上各種擬合回歸過程得出結論是冪函式法為最佳
Regression 回歸 多項式回歸
回歸是指擬合函式的模型 影象等。與分類不同,回歸一般是在函式可微的情況下進行的。因為分類它就那麼幾類,如果把類別看做函式值的話,分類的函式值是離散的,而回歸的函式值通常是連續且可微的。所以回歸可以通過梯度下降法來進行。比如對於函式 y b wx x 是輸入變數,w 和 b 是引數。可以使用訓練集輸入...
多項式回歸
import numpy as np import matplotlib.pyplot as plt x np.random.uniform 3,3,size 100 x x.reshape 1,1 y 0.5 x 2 x 2 np.random.normal 0,1,100 plt.scatter...
多項式回歸
多項式回歸 import torch import numpy defmake features x 獲取 x,x 2,x 3 的矩陣 x x.unsqueeze 1 將一維資料變為 n,1 二維矩陣形式 return torch.cat x i for i in range 1 4 1 按列拼接 ...