轉 簡單多項回歸

2021-08-20 11:00:39 字數 932 閱讀 6814

例子:銷售額x與流通費率y

xx = c(1.5,2.8,4.5,7.5,10.5,13.5,15.1,16.5,19.5,22.5,24.5,26.5)

yy = c(7.0,5.5,4.6,3.6,2.9,2.7,2.5,2.4,2.2,2.1,1.9,1.8)

tt<-data.frame(xx,yy)

names(tt)<-c("x","y")

plot(tt$x,tt$y)

# 直線回歸(r2值不理想)

lm.1=lm(y~x,data=tt)

summary(lm.1)

# 多項式回歸,假設用二次多項式方程y=a+bx+cx2

lm.2=lm(y~x+i(x^2),data=tt)

summary(lm.2)

plot(tt$x,tt$y)

lines(tt$x,fitted(lm.2))

# 對數法,y=a+blogx

lm.log=lm(y~log(x),data=tt)

summary(lm.log)

plot(tt$x,tt$y)

lines(tt$x,fitted(lm.log))

# 指數法,y=aebx

lm.exp=lm(log(y)~x,data=tt)

summary(lm.exp)

plot(tt$x,tt$y)

lines(tt$x,exp(fitted(lm.exp)))

# 冪函式法,y=axb

lm.pow=lm(log(y)~log(x),data=tt)

summary(lm.pow)

plot(tt$x,tt$y)

lines(tt$x,exp(fitted(lm.pow)))

對比以上各種擬合回歸過程得出結論是冪函式法為最佳

Regression 回歸 多項式回歸

回歸是指擬合函式的模型 影象等。與分類不同,回歸一般是在函式可微的情況下進行的。因為分類它就那麼幾類,如果把類別看做函式值的話,分類的函式值是離散的,而回歸的函式值通常是連續且可微的。所以回歸可以通過梯度下降法來進行。比如對於函式 y b wx x 是輸入變數,w 和 b 是引數。可以使用訓練集輸入...

多項式回歸

import numpy as np import matplotlib.pyplot as plt x np.random.uniform 3,3,size 100 x x.reshape 1,1 y 0.5 x 2 x 2 np.random.normal 0,1,100 plt.scatter...

多項式回歸

多項式回歸 import torch import numpy defmake features x 獲取 x,x 2,x 3 的矩陣 x x.unsqueeze 1 將一維資料變為 n,1 二維矩陣形式 return torch.cat x i for i in range 1 4 1 按列拼接 ...