我們之所以建模, 主要的價值在於**. 學習統計時, 看到各種模型,
線性回歸,多元線性回歸, 曲線回歸等等, 都是為了建模.
但是模型是否好呢? 我們可以檢視r方, 調和r方.
機器學習的到來, 為統計開啟了另一扇大門. 交叉驗證, 檢視**準確度.
如果說現代統計學是一門循序漸進, 系統完善的科學, 機器學習則是各種流派,
黑貓白貓抓到老鼠就是好貓. 英雄不問出處.
機器學習的到來, 讓結果說話, 而不是所謂的邏輯或者假定. 存在的就是合理的,
路徑可能沒有發現, 終究會發現. 有可能是另乙個語言系統中了.
in [4]:
f = function(x) 3 + 2*x
x = rnorm(100)
y = f(x) + 0.5*rnorm(100)
dat =data.frame(x=x,y=y)
head(dat)
x y
0.7656238 4.5241703
-1.2045951 0.1475003
1.8686146 6.6297829
0.7531363 4.9709326
-0.6847217 1.7381070
-0.7545989 1.4639742
in [5]:
mod = lm(y~x)
summary(mod)
call:
lm(formula = y ~ x)
residuals:
min 1q median 3q max
-0.89810 -0.33549 0.01217 0.30443 1.03068
coefficients:
estimate std. error t value pr(>|t|)
(intercept) 2.99220 0.04318 69.29 <2e-16 ***
x 1.90101 0.04506 42.19 <2e-16 ***
---signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
residual standard error: 0.4266 on 98 degrees of freedom
multiple r-squared: 0.9478, adjusted r-squared: 0.9473
f-statistic: 1780 on 1 and 98 df, p-value: < 2.2e-16
模型引數
in [6]:
coef(mod)
(intercept)
2.99220004612752 x
1.9010058887296
公式: $$ y = 2.99 + 1.90*x $$
可以看出來, 通過資料還原x和y的關係, 和真是的x和y的關係比較接近.
作圖: 資料和模型的關係¶
in [7]:
plot(x,y,main="this is a plot")
abline(coef(mod),col="blue")
**x=-1和0.5時y的值
in [8]:
predict(mod,list(x=c(-1,0.5)),se.fit = true)
$fit
11.09119415739792
2
3.94270299049232
$se.fit
10.0670845693041622
2
0.0454934964906985
$df98
$residual.scale
0.426558713436954
in [ ]:
機器學習系列文章序言
機器學習專欄是我在2018年暑假開始全面入門機器學習的心得和總結,在這個為期接近三個月的暑假中,我會學習傳統機器學習,深度學習,以及強化學習三類主要的機器學習方法。在本欄目中,我不會照葫蘆畫瓢的搬抄其他地方的資料,所有的文章均為原創,均為我的心得體會和總結。所以存在一定程度的簡潔和省略。本專欄的目的...
《機器學習》讀書筆記一序言部分
參考文件 陸汝鈴 六問機器學習 文章摘自 機器學習 序言部分 在人工智慧發展早期,機器學習技術內涵幾乎全部是符號學習,從二十世紀九十年代起,統計機器學習猶如一匹黑馬橫空出世,迅速壓倒並取代了符號學習的地位。但這並不意味著符號學習完全被統計學習所取代,相反單純的統計機器學習,在最近的發展歷程中已經走到...
學習筆記序言
由於工作需要,從 年 月 日開始學習 微控制器的自學,為後期的專案開發做好技術儲備。由於以前不怎麼接觸硬體和電路原理方面的知識,現在學習起來還是感覺有點吃力的,所以想通過不斷地做筆記總結學習心得能夠進步更快一點,通過部落格的記錄堅持下來。學習筆記會是從 的工作原理等基礎的知識開始,然後通過 跑馬燈 ...