一、學習筆記
1.線性代數
1)基本概念
2)矩陣
3)向量
2.概率論
1)事件
2)概率
3)概率分布
4)期望和方差
二、關於「梯度」,「梯度下降」和「貝葉斯定理」
梯度:梯度是乙個向量,它的方向與取得最大方向導數的方向一致,而它的模為方向導數的最大值。即函式在該點處沿著梯度的方向變化最快,變化率最大
梯度下降:比如說下山的過程中,但是不知道從哪下山可以最快到山腳,這個時候可以求出梯度值,然後沿著梯度的負方向,也就是當前位置最陡峭的方向走一步,再繼續求當前位置的梯度,通過這樣的方式一步一步往下走,直到到達山腳,這整個過程就是梯度下降。
貝葉斯定理:貝葉斯定理是關於隨機事件a和b的條件概率的一則定理。例如事件a有可能是由多個事件引起的,現在知道事件a發生了,我想知道事件a是由事件b引起的或者是其他事件引起的概率,就可以用貝葉斯定理來計算。
2 機器學習相關數學基礎
1.高等數學 1 函式 2 極限 3 導數 4 極值和最值 極值點 是在一階導數等於0的點,2階導大於0是極小值,2階導小於0是極大值.2階導等於0是拐點,不是極值點.最值 在定義域內的最大最小值 5 泰勒級數 6 梯度 7 梯度下降 2.線性代數 1 基本概念 2 行列式 3 矩陣 4 最小二乘法...
機器學習相關的數學基礎
finney,weir,giordano 托馬斯微積分 葉其孝,王耀東,唐兢譯.第10版.北京 高等教育出版社 2003 1 steven j.leon.線性代數 張文博,張麗靜譯.第8版.北京 機械工業出版社 william mendenhall等.統計學 梁馮珍,關靜譯.第5版.北京 機械工業出...
機器學習之相關數學基礎
1 函式 2 極限 3 導數 4 極值和最值 5 泰勒級數 6 梯度 7 梯度下降 1 基本概念 2 行列式 3 矩陣 4 最小二乘法 5 向量的線性相關性 1 事件 2 排列組合 3 概率 4 貝葉斯定理 5 概率分布 6 期望和方差 7 引數估計 1 p2 概率論與貝葉斯先驗 2 p3 矩陣和線...