相同點:
兩個都是線性模型,線性回歸是普通線性模型,邏輯回歸是廣義線性模型
表達形式上,邏輯回歸是線性回歸套上了乙個sigmoid函式
引數估計上,都是用極大似然估計的方法估計引數 區別
線性回歸優化的目標函式是均方差(最小二乘),而邏輯回歸優化的是似然函式(交叉熵)
線性歸回要求自變數與因變數呈線性關係,而邏輯回歸沒有要求
線性回歸分析的是因變數自身與自變數的關係,而邏輯回歸研究的是因變數取值的概率與自變數的概率
邏輯回歸處理的是分類問題,線性回歸處理的是回歸問題,這也導致了兩個模型的取值範圍不同:0-1和實數域
線性回歸假設響應變數服從正態分佈,邏輯回歸假設響應變數服從伯努利分布
引數估計上,都是用極大似然估計的方法估計引數(高斯分布導致了線性模型損失函式為均方差,伯努利分布導致邏輯回歸損失函式為交叉熵)
線性回歸和邏輯回歸
最近開始學習機器學習,有點心得體會,記錄一下,希望大家批評指正 監督學習 supervised learning 根據已有的資料集,知道輸入和輸出結果之間的關係。根據這種已知的關係,訓練得到乙個最優的模型。也就是說,在監督學習中訓練資料既有特徵 feature 又有標籤 label 通過訓練,讓機器...
線性回歸 和 邏輯回歸
跟著b站乙個小姐姐學的 很不錯 1 什麼是回歸 什麼是分類?簡單來說一般回歸問題在數值上是乙個連續的 而分類問題在數值上一般是離散型的 回歸 回歸模型的更傾向於很小的區域 或者是乙個x對應乙個y 線性回歸就不在討論了 這裡學習一下 邏輯回歸 邏輯回歸 聽起來是回歸 但實際上他是解決分類問題的 是乙個...
kmeans和knn相同點和不同點
kmeans和knn相同點和不同點 一 k最近鄰 knn,k nearestneighbor 分類演算法,找到最近的k個鄰居 樣本 在前k個樣本中選擇頻率最高的類別作為 類別。步驟 1 算距離 給定測試物件,計算它與訓練集中的每個物件的距離 2 找鄰居 圈定距離最近的k個訓練物件,作為測試物件的近鄰...