第一講:
頻率派:
貝葉斯學派:
首先生成資料的模型服從一種未知的分布,不同於頻率派把模型中的引數當作常數,而是把模型中的引數當作乙個隨機變數,引數服從我們給定的某一種先驗分布,當真實的生成資料來了的時候,我們就可以根據後驗概率最大化來判斷服從已知先驗分布的引數在模型中應該怎樣取值。
對概率取log之後的概率值都比較小,為負,所以前面加乙個-,這樣資料都變成正的更好判斷。
map :最大後驗估計
積分積不出來:用蒙特卡洛方法去抽樣 mcmc方法
第二講:
當一組事件單調遞增,即後面的事件包含前面的事件,這樣當n趨於無窮,等於所有事件集合的並集。
當一組事件單調遞減,即前面的事件包含後面的事件,這樣當n趨於無窮,等於所有事件集合的交集。
sigma域
乙個大集合:1.空集合屬於它,2.b與b的補集屬於他, 3.序列事件集合屬於他,序列事件集合的補集也屬於他
機器學習導論(張志華) 條件期望
這個筆記是北大那位老師課程的學習筆記,講的概念淺顯易懂,非常有利於我們掌握基本的概念,從而掌握相關的技術。這節課主要講的是常用統計分布裡的條件期望。x 1n i 1na i overline frac quad a i x n1 i 1n ai 樣本矩陣 p u k 1 p u k sigma 1 ...
機器學習導論(張志華) 多項式分布
這個筆記是北大那位老師課程的學習筆記,講的概念淺顯易懂,非常有利於我們掌握基本的概念,從而掌握相關的技術。兩個矩陣相似 兩個矩陣特徵值一樣。兩個矩陣合同 矩一樣,就是個數一樣。高斯分布的特性 知道 和 mu 和 sigma 和 就可以確定這個分布,是它的資訊量。學習的是空間區域性點之間的關係。the...
統計機器學習 1 統計機器學習基礎
網路 演算法 機器 優化 概率 統計 資料 矩陣 資訊 模型 推理 獲知識 靠學習 we are drowning in information and starving for knowledge.john naisbitt data model knowledge mlstatistics 備註...