構建乙個神經網路,將前一層的輸出和它自身作為輸入。下列哪一種架構有反饋連線?
a. 迴圈神經網路
b. 卷積神經網路
c. 受限玻爾茲曼機
d. 都不是
答案:a
解析:rnn的結構定義就是具有反饋層的,這樣才成功實現了記憶功能。 cnn並不具備反饋,它本質是一種前饋的網路,而受限波爾茲曼機,它的結構和全連線網路一樣,只不過內部計算的方式不同。
深度學習是當前很熱門的機器學習演算法,在深度學習中,涉及到大量的矩陣相乘,現在需要計算三個稠密矩陣a,b,c 的乘積abc,假設三個矩陣的尺寸分別為m∗n,n∗p,p∗q,且m n + mqp 對於選項c,次數為nqp + mqn 兩數相減,合併,根據大小關係得出a更小。
在大規模的語料中,挖掘詞的相關性是乙個重要的問題。以下哪乙個資訊不能用於確定兩個詞的相關性。
a. 互資訊
b. 最大熵
c. 卡方檢驗
d. 最大似然比
答案b解析: 最大熵代表了整體分布的資訊,通常 具有最大熵的分布作為該隨機變數的分布, 不能體現兩個詞的相關性
互資訊是乙個隨機變數中包含的關於另乙個隨機變數的資訊量,很明顯是可以的,卡方檢驗是檢驗兩類事務發生的相關性,也是可以的,最大似然比就不說了,裡面包含了最大似然,而最大似然被廣泛應用到語言模型中,那必然是可以的。
在cnn網路中,圖a經過核為3x3,步長為2的卷積層,relu啟用函式層,bn層,以及乙個步長為2,核為22的池化層後,再經過乙個33的的卷積層,步長為1,此時的感受野是()
a. 10
b. 11
c. 12
d. 13
答案 d
解析:感受野的意思是現在的乙個畫素對應原來的多少個畫素
計算一波,原本的計算計算公式為 [(input_size+2padding-kernel_size)/stride ]+1
此時我們需要倒推,則原先的size = (output_size -1)stride +kernel_size ,一下為具體補助
「再經過乙個33的的卷積層,步長為1」,則現在的1畫素對應原來的33個畫素
「乙個步長為2,核為22的池化層」,那個33應該對應的是 66
再到最開始的 「核為3x3,步長為2的卷積層」,那個得到的應該是13
下列指標中,有哪些指標可用於模型評估()
a. 準確率(accuracy)
b. 精確率(precision)
c. 召回率(recall)
d. 均方根誤差(rmse)
答案:abcd
解析略,過分基礎了。
機器學習 深度學習 自然語言處理
文字挖掘 文字分類 機器翻譯 客服系統 複雜對話系統 手工特徵耗時耗力,還不易拓展 自動特徵學習快,方便擴充套件 深度學習提供了一種通用的學習框架,可以用來表示世界,視覺和語言學資訊 深度學習可以無監督學習,也可以監督學習 我 今天 下午 打籃球 p s p w1,w2,w3,w4,w5,wn p ...
基於深度學習的自然語言處理
cbow表示可以通過求單詞表示向量和或者通過將乙個單詞詞袋向量乘 以乙個每一行對應於乙個稠密單詞表示的矩陣 這樣的矩陣也叫作嵌入矩陣 embedd i ng matricy 來得到。網路中每行神經元的值可以看作是乙個向量 全連線層可以看作是從四維到六維 的線性變換。全連線層實現了乙個向量與矩陣的乘法...
機器學習 自然語言處理方向面試
360實習生面試過程 18年2月初去的360面試,這是第一次去大型網際網路公司面試,也只是抱著試試看的念頭,但是年後hr給我打 說我通過了,然後就沒再準備其他公司的,一心等3月多去公司。結果,一直沒等到正式offer的我給公司打 跟我說人招滿了,忘記通知我了。呵呵到無話可說,如果第乙個 告訴我說我沒...