BAT機器學習面試1000題系列(86 90題)

2022-09-20 20:54:08 字數 1898 閱讀 4102

無障礙寫文章

28 人贊同了該文章

86.已知一組資料的協方差矩陣p,下面關於主分量說法錯誤的是(c)

a、主分量分析的最佳準則是對一組資料進行按一組正交基分解, 在只取相同數量分量的條件下,以均方誤差計算截尾誤差最小

b、在經主分量分解後,協方差矩陣成為對角矩陣

c、主分量分析就是k-l變換

d、主分量是通過求協方差矩陣的特徵值得到

@blackeyes_sgc:k-l變換與pca變換是不同的概念,pca的變換矩陣是協方差矩陣,k-l變換的變換矩陣可以有很多種(二階矩陣、協方差矩陣、總類內離散度矩陣等等)。當k-l變換矩陣為協方差矩陣時,等同於pca。

87.kmeans的複雜度

時間複雜度:o(tkmn),其中,t為迭代次數,k為簇的數目,m為記錄數,n為維數空間複雜度:o((m+k)n),其中,k為簇的數目,m為記錄數,n為維數

88.關於logit 回歸和svm 不正確的是(a)

a. logit回歸本質上是一種根據樣本對權值進行極大似然估計的方法,而後驗概率正比於先驗概率和似然函式的乘積。logit僅僅是最大化似然函式,並沒有最大化後驗概率,更談不上最小化後驗概率。a錯誤

b. logit回歸的輸出就是樣本屬於正類別的機率,可以計算出概率,正確

c. svm的目標是找到使得訓練資料盡可能分開且分類間隔最大的超平面,應該屬於結構風險最小化。

d. svm可以通過正則化係數控制模型的複雜度,避免過擬合。

@blackeyes_sgc:logit回歸目標函式是最小化後驗概率,logit回歸可以用於**事件發生概率的大小,svm目標是結構風險最小化,svm可以有效避免模型過擬合。

89.輸入大小為200×200,依次經過一層卷積(kernel size 5×5,padding 1,stride 2),pooling(kernel size 3×3,padding 0,stride 1),又一層卷積(kernel size 3×3,padding 1,stride 1)之後,輸出特徵圖大小為(97): @blackeyes_sgc:計算尺寸不被整除只在googlenet中遇到過。卷積向下取整,池化向上取整。

本題 (200-5+2*1)/2+1 為99.5,取99

(99-3)/1+1 為97

(97-3+2*1)/1+1 為97

研究過網路的話看到stride為1的時候,當kernel為 3 padding為1或者kernel為5 padding為2 一看就是卷積前後尺寸不變。計算googlenet全過程的尺寸也一樣。

90.影響聚類演算法結果的主要因素有(b、c、d )。

a.已知類別的樣本質量; b.分類準則; c.特徵選取; d.模式相似性測度

編輯於 2017-11-27 14:18

卷積神經網路(cnn)

機器學習

求職bat

​贊同 28

​​分享

​喜歡​收藏

​申請**

​bat ai面試1000題

人民郵電出版社

大廠offer寶典

機器學習社...發表於機器學習社...

​切換為時間排序

發布

BAT機器學習面試1000題系列(56 60題)

無障礙寫文章 29 人贊同了該文章 對影象 不同的資料視窗資料 和濾波矩陣 一組固定的權重 因為每個神經元的多個權重固定,所以又可以看做乙個恆定的濾波器filter 做內積 逐個元素相乘再求和 的操作就是所謂的 卷積 操作,也是卷積神經網路的名字 非嚴格意義上來講,下圖中紅框框起來的部分便可以理解為...

BAT機器學習面試系列 一

1.請簡要介紹下tensorflow的計算圖 tensorflow是乙個通過計算圖的形式來表述計算的程式設計系統,計算圖也叫資料流圖,可以把計算圖看做是一種有向圖,tensorflow中的每乙個節點都是計算圖上的乙個tensor,也就是張量,而節點之間的邊描述了計算之間的依賴關係 定義時 和數學操作...

BAT面試經驗分享(機器學習演算法崗)

阿里 對於大資料方面的問題可參考 二面 相隔時間有三周左右,本來以為沒戲了 二面是個大叔,問了專案中的fm和ffm的區別 參考問的主要是專案上的,問了天池大資料比賽的一些問題,因為說了平時會關注最新技術動態,因為就叫我舉個例子,剛好看過微軟識花的那篇文章就好好講了下。最後問了下工作地啥的。二面就40...