深度學習如何改進(四)

2021-09-27 10:55:23 字數 968 閱讀 3084

在前面的文章中我們給大家介紹了很多關於深度學習改進的知識,相信大家應該對深度學習已經有了一定的了解了。深度學習改進中涉及到的知識點很多,比如神經網路知識、迴圈神經網路知識等。那麼在今天的這篇文章中,我們就給大家介紹一下迴圈神經網路的知識。

那麼迴圈神經網路中需要解決什麼問題呢?其實就是上下文場景記憶的問題。我們在前面的文章中提到的神經網路模型都不能解決「記憶暫存功能」,也就是對比較遠期輸入的內容無法進行量化,與當前內容一起反應到網路中進行訓練,迴圈神經網路可以解決,在自然語言處理中也應用最廣泛。其實迴圈神經網路實現上下文場景記憶的時候我們無法忽略的乙個基礎是,那就是隱馬爾可夫模型。

在隱馬爾可夫模型中,有乙個重要的內容那就是馬爾可夫鏈。那麼這個馬爾科夫鏈的核心是什麼呢?馬爾可夫鏈的核心是:在給定當前知識和資訊的前提下,觀察物件過去的歷史狀態,對將來的**來說是無關的。在迴圈神經網路中,隱含狀態下的馬爾可夫鏈會處理神經元之間的資訊傳遞。但是理論上迴圈神經網路是行得通的,但在實踐上工程師們發現訓練效果並不佳,所以現在用了長短期記憶網路來取代傳統的迴圈神經網路。長短期記憶網路規避了傳統迴圈神經網路中遇到的問題,並啟動了乙個有效的機制,那就是忘記門,在訓練過程中長短期記憶網路會把有潛在影響的關係學習,忽略無效的關係。而長短期記憶網路目前應用在翻譯器、聊天機械人、分類器等場景。

那麼迴圈神經網路有什麼侷限性的呢?說到侷限性,訓練過程中,目前只支援相對固定、邊界劃定清晰的場景,長短期記憶網路對多場景問題也是無能為力的。而深度殘差網路要解決的問題是傳統深度學習網路中,網路到一定深度後,學習率、準確率下降的問題。目前,drn在影象分類、物件檢測、語義分割等領域都有較好的識別確信度。這一點和迴圈神經網路完全不一樣。

在這篇文章中我們簡單給大家介紹了迴圈神經網路的知識,對於這些知識我們不難發現這些神經網路通過改進解決了不少的問題,但是同樣都具有了侷限性,所以我們要好好的利用這些方法,這樣我們才能夠解決我們的問題。

深度學習如何改進(三)

很多人認為人工智慧是乙個新興的技術,其實並不是這樣的,人工智慧從被提出到現在有了幾十年的時間,足以發現人工智慧的歷史悠久。而人工智慧中有乙個十分重要的內容,那就是深度學習。深度學習在人工智慧的發展下也經歷了很大的改進,我們在這篇文章中給大家介紹一下這些關於深度學習的內容。深度學習中有很多東西是進行全...

Keras深度學習(四)

今天測試前幾天所提到的演算法 1.使用keras定義簡單的神經網路 from future import print function import numpy as np from keras.datasets import mnist from keras.models import seque...

深度學習 深度學習的四大元件

這四大元件就是 這四者的關係描述如下 多層組合在一起形成了網路,網路的目的是將輸入資料對映為 值,通過損失函式將 值和目標值比較,得出損失值,用來衡量網路的效能,而優化器的職責是迭代優化損失值來更新網路權重 bp演算法 層 構建網路的樂高積木 深度學習模型的最常見用法是層的線性堆疊,將單一輸入對映為...