演算法工程師面試,每天看一遍,看看**不會?點**
87. 你有哪些deep learning(rnn,cnn)調參的經驗?
88. 簡單說說rnn的原理。
89. 什麼是rnn?
90. rnn是怎麼從單層網路一步一步構造的的?
101. 深度學習(cnn rnn attention)解決大規模文字分類問題。
102. 如何解決rnn梯度**和瀰散的問題的?
103. 如何提高深度學習的效能?
104. rnn、lstm、gru區別?
105. 當機器學習效能遭遇瓶頸時,你會如何優化的?
106. 做過什麼樣的機器學習專案?比如如何從零構建乙個推薦系統?
107. 什麼樣的資料集不適合用深度學習?
108. 廣義線性模型是怎被應用在深度學習中?
109. 準備機器學習面試應該了解哪些理論知識?
110. 標準化與歸一化的區別?
111. 隨機森林如何處理缺失值。
112. 隨機森林如何評估特徵重要性。
113. 優化kmeans。
114. kmeans初始類簇中心點的選取。
115. 解釋對偶的概念。
116. 如何進行特徵選擇?
117. 資料預處理。
118. 簡單說說特徵工程。
119. 你知道有哪些資料處理和特徵工程的處理?
120. 請對比下sigmoid、tanh、relu這三個啟用函式?
121. sigmoid、tanh、relu這三個啟用函式有什麼缺點或不足,有沒改進的啟用函式?
122. 怎麼理解決策樹、xgboost能處理缺失值?而有的模型(svm)對缺失值比較敏感?
123. 為什麼引入非線性激勵函式?
124. 請問人工神經網路中為什麼relu要好過於tanh和sigmoid function?
125. 為什麼lstm模型中既存在sigmoid又存在tanh兩種啟用函式?
126. 衡量分類器的好壞。
127. 機器學習和統計裡面的auc的物理意義是什麼?
128. 觀察增益gain, alpha和gamma越大,增益越小?
129. 什麼造成梯度消失問題? 推導一下。
130. 什麼是梯度消失和梯度**?
131. 推導下反向傳播backpropagation。
132. svd和pca。
133. 資料不平衡問題。
135. .簡述神經網路的發展。
136. 深度學習常用方法。
137.-171
172. 增加卷積核的大小對於改進卷積神經網路的效果是必要的嗎?
173. 請簡述神經網路的發展史。
174. 說說spark的效能調優。
175. 機器學習中,有哪些特徵選擇的工程方法?
176. 常見的分類演算法有哪些?
177. 常見的監督學習演算法有哪些?
178. -214
215. 試推導樣本空間中任意點x到超平面(w,b)的距離公式。
217. 神經網路中啟用函式的真正意義?乙個啟用函式需要具有哪些必要的屬性?還有哪些屬是好的屬性但不必要的?
218. 梯度下降法的神經網路容易收斂到區域性最優,為什麼應用廣泛?
219. em演算法、hmm、crf。
220. cnn常用的幾個模型。
221. 帶核的svm為什麼能分類非線性問題?
222. 常用核函式及核函式的條件。
223. boosting和bagging。
224. 邏輯回歸相關問題。
225. 用貝葉斯機率說明dropout的原理。
226. 為什麼很多做人臉的*****會最後加入乙個local connected conv?
227. 什麼事共線性, 跟過擬合有什麼關聯?
228. 為什麼網路夠深(neurons 足夠多)的時候,總是可以避開較差local optima?
229. 機器學習中的正負樣本。
230. 機器學習中,有哪些特徵選擇的工程方法?
231. -284 choose
285. 特徵向量的歸一化方法有哪些?
286. 優化演算法及其優缺點?
287. rf與gbdt之間的區別與聯絡?
288.-301 choose
302. 什麼是梯度**?
303. 梯度**會引發什麼問題?
305. 如何修復梯度**問題?
306. lstm神經網路輸入輸出究竟是怎樣的?
307. -315 choose
316. 什麼是偏差與方差?
317. 解決bias和variance問題的方法是什麼?
318. 採用 em 演算法求解的模型有哪些,為什麼不用牛頓法或梯度下降法?
319. xgboost怎麼給特徵評分?
320. 什麼是oob?隨機森林中oob是如何計算的,它有什麼優缺點?
BAT機器學習面試1000題系列(86 90題)
無障礙寫文章 28 人贊同了該文章 86.已知一組資料的協方差矩陣p,下面關於主分量說法錯誤的是 c a 主分量分析的最佳準則是對一組資料進行按一組正交基分解,在只取相同數量分量的條件下,以均方誤差計算截尾誤差最小 b 在經主分量分解後,協方差矩陣成為對角矩陣 c 主分量分析就是k l變換 d 主分...
BAT機器學習面試1000題系列(56 60題)
無障礙寫文章 29 人贊同了該文章 對影象 不同的資料視窗資料 和濾波矩陣 一組固定的權重 因為每個神經元的多個權重固定,所以又可以看做乙個恆定的濾波器filter 做內積 逐個元素相乘再求和 的操作就是所謂的 卷積 操作,也是卷積神經網路的名字 非嚴格意義上來講,下圖中紅框框起來的部分便可以理解為...
機器學習面試筆記整理6 隨機森林
隨機取樣 隨機特徵 多棵決策樹 多數投票 分類 取平均值 回歸 優點 並行 隨機性的引入,增加了多樣性,泛化能力非常強,抗雜訊能力強,對缺失值不敏感 可省略交叉驗證,因隨機取樣 並繼承決策樹有的優點,包括 1 可得到特徵重要性排序,因此可做 特徵選擇 2 可處理高維特徵,且不用特徵選擇 3 能處理離...