很多人在學習深度學習的時候會遇到乙個疑惑,那就是深度學習可解釋差這個說法是否準確。這個拗口的詞彙相信大家對其義也不甚了解。雖說這個詞彙不好理解,但是這個詞彙確實是乙個十分重要的概念,我們要想學習深度學習知識就不能忽略這個詞彙。那麼深度學習可解釋差到底是什麼意思呢?下面我們就給大家介紹一下這個詞彙的意思。
首先我們給大家解讀一下「解釋」的含義,其實解釋的意思就是在觀察的基礎上進行思考,合理地說明事物變化的原因,事物之間的聯絡,或者是事物發展的規律。而深度學習可解釋性差,意思就是我們很難去說明一條樣本資料灌進乙個神經網路出來這樣乙個**結果的原因,這造成的直接後果就是很多時候我們不清楚如何針對乙個神經網路做優化。
我們怎麼去解釋這個詞彙的意思呢?其實我們可以從乙個線性回歸模型考慮。就拿現在大家最關心的房價來說,房價的因素有很多,我們主要就是說兩種,第一就是面積,第二就是到市中心的距離。我們認為乙個房子的房價受房屋大小和到始終細膩距離兩個因素影響,而且到市中心距離這個因素的印象力很大,比房屋面積大100倍。我們還可以針對每個權重和偏置做假設檢驗,來看看這三個因素有沒有哪些是無顯著影響的。對於這種只有兩個因素的線性模型,我們甚至還可以將模型的函式影象畫出來,直觀地檢查模型與資料擬合程度如何。對於線性模型,我們很清楚每乙個權重和偏置的含義是什麼。所以我們可以有很多明確的優化方案。這就是線性回歸的相關思想知識。
當然神經網路有很多的結構,也有很多的特點,第乙個特點就是神經元多,引數眾多;第二個特點就是結構分層,且隱含層眾多;第三個特點就是神經網路的引數對應的特徵不是人工設計的,是神經網路在學習過程中自己選擇的。我們根本不知道我們的神經網路模型到底學習了寫什麼,我們不知道每乙個引數的含義是什麼,所以我們無法解釋整個模型的運作機制,自然也無法得出明確而又針對性的優化方案。
關於深度學習的可解釋性
在這裡學習的,在此簡要做了些筆記。人類對模型決策 結果的理解程度。對於深度學習而言,可解釋性面臨兩個問題 為甚會得到該結果?過程 為甚結果應該是這個?結果 理想狀態 通過溯因推理,計算出輸出結果,可是實現較好的模型解釋性。衡量乙個解釋是否合理,需要考慮 可解釋性 通過人類可以理解的方式描述系統的內部...
漏洞可解釋性定位
利用可解釋性做定位,用可解釋的方法來做定位。首先在建模的時候要包括能體現漏洞的特徵,結合汙點分析的原理,可以這樣說,如果在source和sink中間沒有sanitizer操作,這才可能會導致漏洞發生,資料完整性或資料私密性被破壞。都說借助自然語言的處理方法來對程式處理,是為了程式的語義資訊。可是,程...
AI可解釋性主體
可解釋性,就是我們需要完成一件事的時候,我們能獲取到的足夠多的,能讓我們自己理解的資訊。當我們不能獲得足夠多的資訊,來理解一件事情的時候,我們可以說這是不可解釋的。所以,解釋性的目的就是以人的思維來理解事物,讓人能懂。但是在深度學習模型中,建立模型的時候往往沒有考慮到它的可解釋性,特別是在深層網路中...