第三講 學習的方式
一 y的維度
h的輸出可能不是乙個yes和no能解決的,可能是全體實數,可能是列舉值等
二 學習的方法
supervised learning 知道所有的y
unsupervised learning 不知道y
semi-supervised learning 知道一部分y
inforce learning 告訴機器那個是不對的,就像訓練狗一樣訓練機器
三 學習的策略
batch,填鴨式的;sequence,漸進式的,類似於課堂上的學習,老師提出乙個問題,學生回答,然後老是告訴你答案是不對的,讓你繼續作答;active:主動提出問題來學習。
四 不同的input
raw data(原始的資料),concrete data(具體的資料),abstract data(抽象的資料,沒有具體的意義,你需要自己找出這個資料的特徵,比如學生id是乙個抽象的,你要自己找出這個學生的特徵)
專注於:regression ,batch ,supervised,concrete
——————————————————————————————————————
第四講 學習是可能的嗎?
通過乙個例子引出學習是否是可能的這個問題。
就是你即使得到乙個函式,這個函式的值和你手中的資料的值非常的相似,但是你依然不能**,你可以**,但是未來的值是未知的,可以有多種可能。這要怎麼辦?
想到數學中的用已知的值,來**未知的值的例子,就是抽樣
通過抽樣來得到orange球的比例。
估計罐子中的orange色的球的概率。最容易想到的就是抽樣,只要抽的足夠大,然後計算orange色球的概率,這個概率就會非常的接近真實的概率。似乎學習就是可能的了。
我們把orange 球的概率比作h在某個資料上的錯誤的概率。
h(x)就像是bin中orange的數量,雖然有的時候你可能一次全拿的是orange的,但你不可能只通過這乙個樣本來估計總的樣本的orange的比例。hx可能在某一次的data上是全部正確的,但是你不能因此就確定這個h是最好的,你要繼續取樣,只要你取足夠的樣本,你總是可以最後證明了只要資料量夠大,學習就是可能的。就像你取足夠的data就可以得到bin中orange的比例是一樣的。
可以證明
:bad data是有上線的。
是類似於你全取orange的情況的data,在這種情況下,你可以確定它是乙個bad data,因為它和你所知道的現實差太遠。
同濟大學C mooc 第三講 第四講
同濟大學c moooc第3 4講 第三講以下程式的功能是求兩個非0整數相除的商和餘數。程式有幾處錯誤,試找出它們加以修改,並上機驗證修改結果。片.include iostream using namespace std int main else cout 商 r1 餘數 r2 endl syste...
機器學習第三講
第三講 分類 1.數學知識回顧 點到平面距離 梯度下降法 隨機梯度下降法 學習率的取值要逐步降低 最大似然估計 2.分類介紹 另一種典型的有監督學習問題 標籤 模型 值 y為離散值 實際應用舉例 新聞主題分類 科技 教育 社會 體育?疾病診斷 根據病人肺部影像,診斷是否患 covid 19肺炎 市場...
機器學習十講第三講
本講開始講了梯度下降演算法和最大似然估計演算法。樣本數量 n classes 2,類別數量 n features 2,特徵數量 n informative 2,有資訊特徵數量 n redundant 0,冗餘特徵數量 n repeated 0,重複特徵數量 n clusters per class ...