案例學習:**寶可夢的cp值
step 2: goodness of function
step3: best function
\(w^1=w^0-\eta \frac|_\)
多次迭代直到達到極小值
對於有多個引數的模型,將微分改為偏微分,分別更新每個引數,以兩個引數\(w\)和\(b\)為例:
存在的問題
saddle point
local minima
我們真正關心的是模型在測試集上的表現,而不是訓練集
選擇不同複雜程度的模型
overfitting的另一種解決方法:正則化 regularization
李巨集毅機器學習 回歸 讀書筆記
大二小白,剛剛接觸機器學習。如果有任何問題,希望各位批評指正。互相關注,共同進步呀。stochastic gradient descent 隨機梯度下降演算法 feature scaling 特徵縮放 arg min l loss function parameters 在上節課說道,我們在得出最後...
李巨集毅機器學習之邏輯回歸筆記
x 和 w 都是向量,可以從樸素貝葉斯推出來這個公式 假設每個樣本都是基於 f x p left c mid x right 該函式,所以可以得到訓練資料的可能性函式,使之最大的引數就是最好的引數。將函式取log,並且轉化為求最小值的問題,將c1,c2換為取值為0,1的y1,y2 經過轉換得到兩個變...
李巨集毅 機器學習HW1
這是乙個線性回歸的例子,先讀取資料,將b整合到w中 import numpy as np import csv import pandas as pd f open r c users lenovo desktop hw1 train.csv data list csv.reader f index...