機器學習之sigmoid函式

2021-10-10 17:13:21 字數 618 閱讀 9667

先說一下,ml小白。

這是第一次寫個人部落格類似東西,

主要來說說看 sigmoid 函式,sigmoid函式是機器學習中的乙個比較常用的函式,與之類似的還有softplus和softmax等函式,這裡也就不說,先來看看sigmoid函式的表示式的和影象

sigmoid函式表示式如下

這就是sigmoid函式的表示式,這個函式在伯努利分布上非常好用,現在看看他的影象就清楚

可以看到在趨於正無窮或負無窮時,函式趨近平滑狀態,sigmoid函式因為輸出範圍(0,1),所以二分類的概率常常用這個函式,事實上logisti回歸採用這個函式很多教程也說了以下幾個優點

1  值域在0和1之間

2   函式具有非常好的對稱性

函式對輸入超過一定範圍就會不敏感

sigmoid的輸出在0和1之間,我們在二分類任務中,採用sigmoid的輸出的是事件概率,也就是當輸出滿足滿足某一概率條件我們將其劃分正類,不同於svm。

sigmoid函式 Sigmoid函式推導

通過logistic曲線就可以知道 sigmoid函式的導數是以它本身為因變數的函式,即f x f f x sigmoid函式是乙個閥值函式,不管x取什麼值,對應的sigmoid函式值總是 0,1 1 證明f x f f x 所以 sigmoid函式的值域 0,1 這與概率值的範圍 0,1 很是巧合...

關於sigmoid函式

sigmoid函式是乙個良好的閾值函式,連續,光滑 嚴格單調 關於 0,0.5 中心對稱 對閾值函式有乙個良好的近似 原函式 f x 1 1 e x 其導數f x f x 1 f x 可以節約計算時間 其中,當你寫 的時候,如果f x 不好寫,你可以寫成f x ex 1 ex的形式,其中ex是pow...

S型函式 Sigmoid 函式

sigmoid函式,即f x 1 1 e x 神經元的非線性作用函式。x是冪數 人工神經網路的學習演算法 bp演算法 神經網路的學習是基於一組樣本進行的,它包括輸入和輸出 這裡用期望輸出表示 輸入和輸出有多少個分量就有多少個輸入和輸出神經元與之對應。最初神經網路的權值 weight 和閾值 thre...