吳恩達機器學習日記1 緒論 2 單變數線性回歸

2021-09-12 19:39:21 字數 863 閱讀 2421

緒論

machine learning

supervised learning 監督學習

資料集中的每乙個樣本都有相應的「正確答案」,再根據這些樣本作出**。

regression回歸模型**連續值的屬性

claassification分類問題**乙個離散值的輸出

unsupervised learning 無監督學習

交給演算法大量的資料,並讓演算法從中找出某種結構。

clustering algorithm 聚類僅資料,並不知分類

單變數線性回歸

linear regression with one variable

cost function 代價函式

平方誤差代價函式

parameters

cost function

goal

gradient descent 梯度下降

learning rate:過小,下降慢;過大,可能發散

「:=」表示賦值;「=」真假判定

simultaneous update 同步更新

learning rate fixed:接近區域性最小值時,導數趨向於零,幅度自動減小。

「batch」 gradient descent 批量梯度下降

「batch」: each step of gradient descent uses all the training examples.每一步梯度下降都遍歷了整個訓練集的樣本。

吳恩達機器學習入門 緒論

監督學習 無監督學習 機器學習即使機器自己學習如何去做。資料探勘 實現人類程式設計不出來的程式 cv nlp 手寫識別 自動駕駛 私人定製的程式 理解人類的學習過程和大腦執行監督學習 人為 無監督學習 機器自己學習 根據已有的準確的資料進行 即資料已經有標籤。分類問題 乙個離散值的輸出 回歸問題 乙...

吳恩達機器學習1

吳恩達老師近日在網易雲課堂達成合作,開始新的課程。我也跟著後面學習,順便再中做個筆記,以加深記憶!此次老師的課程主要講解五個部分 1.neural networks and deep learning 2.improve deep neural networks hyperparameter tun...

吳恩達深度學習日記1

今天的內容主要是聽了logistic回歸的部分 1 logistic回歸其實就是乙個 y sigmoid wx b 的乙個式子,其實可以直接理解為乙個一元一次函式,但是考慮到這個模型的用處在於做乙個二分類,所以直接使用 y wx b 不一定可以滿足要求,而加上sigmoid函式之後就可以將結果值y固...