實際上,將輸入值進行縮放,使其具有適當的範圍,可以方便計算。
在神經網路中,可以將縮放函式視為連線到神經網路輸入的一層。縮放層包含輸入量的一些基本統計學資訊,包括平均值、標準差、最小值和最大值。
實踐中常用的一些縮放方法如下:
最大最小值縮放
均值和標準差縮放
標準差縮放
最大最小值縮放
最大最小值縮放法產生乙個大小在-1和1之間的資料集。該方法通常用於具有均勻分布的變數。
均值和標準差縮放
平均值和標準差縮放法對輸入進行縮放,以使它們的平均值為0,標準差為1。此方法通常應用於具有正態(或高斯)分布的變數。
標準差縮放
標準差縮放法產生標準差為1的輸入。通常將其應用於半正態分佈,即變數遵循以0為中心的正態分佈,但僅取正值。
所有縮放方法都是線性的,並且通常會產生相似的結果。在所有情況下,資料集中的資料縮放必須與神經網路中的輸入縮放同步。
神經網路縮放後的輸出值經反縮放還原成原始數值單位。
在神經網路的上下文中,縮放還原函式可理解為連線感知器層輸出的縮放還原層。縮放還原層包含輸出量的一些基本統計資訊,包括平均值、標準差、最小值和最大值。
實踐中常用的四種縮放還原方法如下:
最大最小值縮放還原法
均值和標準差縮放還原法
標準差縮放還原法
對數縮放還原法
最大最小值縮放還原法
先前縮放為[-1,+1]的變數,經縮放還原,轉換成原始範圍內的輸出。
均值和標準差縮放還原法
均值和標準差縮放還原法將原先縮放成均值0、標準差1的變數還原。
標準差縮放還原法
標準差縮放還原法將原先縮放成標準差1的變數還原,從而產生原始範圍內的輸出值。
對數縮放還原法
對數法將原先進行了對數變換的變數還原。
任何情況下,資料集內目標值的縮放必須與神經網路的輸出還原同步。
人工神經網路 理解人工神經元和神經網路
人工神經網路主要根據大腦神經元構建人工神經元,並且按照一定的拓撲結構建立神經元之間的連線,模擬生物神經網路。早期模型強調生物合理性,目前更加強調對認知能力的模擬,完成某種特定任務。人工神經網路系列部落格持續更新。由於本人更喜歡使用word和mathtype,所以較多截屏。如果我的理解有欠缺或者錯誤,...
人工智慧和神經網路
人工智慧的發展飛快,這也得益於人工智慧的技術成熟。而人工智慧離不開神經網路,神經網路在人工智慧的發展中也是走過了十分崎嶇的道路,那麼究竟是怎麼一回事呢?我們在這篇文章中給大家介紹一下這個問題。每乙個科學的技術發展程序都是十分相似的,如果我們從歷史來看,就能夠發展一件十分有意思的事情,重大科學的研究往...
神經網路七 神經網路設定層的數量和尺寸
本文就現在神經網路中層的數量和尺寸,分析其中的優缺點。在此特宣告,本文的內容是來自 cs231n課程筆記翻譯 神經網路筆記1 下 智慧型單元 知乎專欄。因本人有時會查閱這些相關的知識點,一直翻文件比較麻煩,特從文件中摘錄複製寫到部落格中,其中的艱辛也是有的,希望對廣大參閱者也有幫助。在面對乙個具體問...