python的scipy.optimize
中有函式可以用來擬合函式,可以用來求引數和誤差。需要有一組二維資料x
和y
樣本,根據資料假設函式的形式,然後根基最函式值與樣本資料y
的差的平方的和來判定合適的引數,然後再求得誤差。**為:
import numpy as np
from scipy.optimize import leastsq
## 定義函式
defxw20
(x,a,a,b,d)
:return
(a*(
((x+d)/(
8.3+d)
)**a)
*(math.e**
(-b*
((x-
8.3)/(
8.3+d)))
))###需要擬合的函式func及誤差error###
defrexw20
(p,y,x)
:### 誤差
a,a,b,d = p
return
(y - yk04(x,a,a,b,d))**
2# 求引數、和協方差矩陣
x =[0,
1.5,3,
4.5,6,
7.5,9,
10.5,12
,13.5,15
]y =[22
,36,67
,98,54
,41,32
,21,10
,4,1
] p0 =[1
]*4para,pcov,infodict,errmsg,success = leastsq(rexw20,p0,args=
(y,x)
,full_output=1)
a,a,b,d = para
print
("函式的引數為: "
,para)
print
("協方差矩陣: "
,pcov)
err = np.sqrt(pcov.diagonal())
/ para
print
("引數誤差為:"
,err)
最小均方誤差(MMSE)
mmse是乙個model用來最小化mean square error mse 什麼是最小均方誤差?讓我們從通道模型說起 mmse是一種方法,讓接到的資料盡可能更加接近傳送的資料,所以mmse的目的就是找乙個矩陣g,來讓gy更加接近x 接下來我們的目標就是解決這個式子gy x,讓gy更加接近x,我們認...
均方誤差損失函式
假設我們的模型是二維平面的線性回歸模型 對於這個模型,我們定義損失函式為mse,將得到如下的表示式 下面我們試著通過概率的角度,推導出上述的mse損失函式表示式。為了使模型更合理,我們假設 服從均值為0,方差為1的高斯分布,即 所以有 所以,y服從均值為 方差為1的高斯分布,則樣本點的 概率為 有了...
均方誤差和交叉熵誤差
均方誤差個交叉熵誤差都是常用的損失函式之一。損失函式是用來表示神經網路效能的 惡劣程度 的指標。即當前神經網路對監督資料在多大程度上不擬合,在多大 程度上不一致。說白了,即所建立的神經網路對輸入資料的 輸出值與監督資料 實際輸出值 的差距。上面是計算公式,其中yk表示神經網路的 輸出值,tk表示監督...