特徵縮放
特徵縮放這個名字聽起來很膩害的樣子,實際上它講了乙個非常淺顯的方法。
例如下面的cameront1身高5.9,體重175,他穿l號的衣服。
sarah體重115,身高5.2,她穿s號的衣服。
那麼有個人叫chris,他體重140,身高6.1,應該穿了l還是s呢?
我們可以合理的猜測一下,chris的身高6.1更接近cameron的5.9的身高,因此可以和他一樣穿l號的,當然你也可以有其他的猜測,例如根據體重
特徵縮放就講的這麼一回事,公式如下:
x'=\frac}-x_}
例如剛剛的中,我們的身高有[115,140,174],這裡的最大值是175,最小值是115,那麼140的縮放值就是
x_'=\frac≈0.417
這中做法的有好有壞:
好處:得到的值都是0~1之間的,很方便
壞處:如果存在異常值,那麼結果就很不可靠
在python中實踐特徵縮放
這個公式非常簡單,當然你也可以自己編寫**來計算,不過我們要用到的是sklearn文件中的函式,因為這樣子更懶~
開啟sklearn的minmaxscaler函式,會看到下面的**示例:
然後我們開啟python的終端來操作一下剛剛例子中的身高陣列[115,140,174]
>>
>
from sklearn.preprocessing import minmaxscaler
>>
>
import numpy
>>
> weights=numpy.array([[
115.],
[140.]
,[175.]]
)>>
> scaler=minmaxscaler(
)>>
> rescaled_weight=scaler.fit_transform(weights)
>>
> rescaled_weight
array([[
0.],
[0.41666667],
[1.]
])
需要注意的是【使用rbf核函式的svm】和【k-均值聚類】演算法都會收到【特徵縮放】的影響,而【決策樹】和【線性回歸】則不會受到影響你的贊是對作者莫大的支援哦~?
如果你想看其他的關於機器學習的一些知識,可以關注我的知乎專欄,我是乙個機器學習小白,初學者總會遇到各種各樣的困難,我會從初學者的角度把每乙個坑都給你仔仔細細的講明白咯~
特徵縮放 feature scaling
特徵縮放的一些方法 feature scaling 資料規範化 是資料探勘或機器學習常用到的步驟,這個步驟有時對演算法的效率和準確率都會產生巨大的影響。對精度的影響 這個步驟的必要性要依賴於資料特徵的特性,如果有 2特徵,並且不同特徵間的值變化範圍差異大,那就很有必要使用feature scalin...
特徵縮放(Feature Scaling)
1 最大最小值歸一化 min max normalization 將數值範圍縮放到 0,1 區間裡 2 均值歸一化 mean normalization 將數值範圍縮放到 1,1 區間裡,且資料的均值變為0 3 標準化 z值歸一化 standardization z scorenormalizati...
優達twitter 清理 優達學城的學習感想及優惠
2017年12月因一次偶然的機會,看到優達學城的課程。當時通過優惠碼 0c637434報名能有優惠 你們也可以使用拿優惠哦 就決定參加了優達學成的資料分析入門課程。資料分析入門課程學習的內容有四大課程還有一節輔修課程。四大課程分別是 第一節分別是資料分析相關的介紹,應用的行業。第二節是python入...