##tencent的**面試一般都不會提前溝通,因此投遞完簡歷之後,需要保持**隨時暢通,並準備一篇自我介紹,3-5分鐘左右。
q1:支援向量機,最後為什麼選擇對偶來求解?
(1)對偶問題將原始問題中的不等式約束轉化為等式約束;
(2)方便了核函式的引入;
(3)降低了問題的複雜度;由求特徵向量w轉化為求比例係數a,在原始問題下,求解的複雜度與樣本的維度有關,即w的維度。在對偶問題下,只與樣本數量有關。
(4)求解更加高效,求解alpha;而alpha只有在支援向量裡才非零,其他全為零。
q2:cnn中,1*1卷積核的作用是什麼?
(1). 增加網路的深度:讓網路加深,有點是能夠讓系統引入更多的非線性,可以表徵更複雜的資訊。而卷積核越大,生成的featuremap上單個節點的感受野也越大,隨著網路深度的增加,越靠後的featuremap上節點的感受野越大,一次特徵也就越抽象。而1*1的卷積核,可以在不增加感受野的情況下讓網路加深。
(2). *公升維或者降維:卷積後的featruremap通道數與卷積核個數相同,如果需要公升維或者降維,1**1的卷積核可以在達到目的的同時,降低計算量和記憶體。
q3:為什麼xgboost相比於gdbt有更好的魯棒性?
需要清楚的知道xgboost相比於gdbt的區別,這裡的魯棒性可以理解為系統的泛化能力(即在測試集的表現),xgboost泛化能力優於gdbt主要有以下兩個原因:
(1). xgboost在訓練過程中加入了正則化項,防止系統出現過擬合現象;
(2). .對每顆子樹增加乙個引數,使得每顆子樹的權重降低,防止過擬合,這個引數叫shrinkage;同時對特徵進行降取樣,靈感**於隨機森林,除了能降低計算量外,還能防止過擬合。
q4:正負樣本數量不平衡,應該如何處理?
(1). 最簡單的方法:對資料進行重取樣,收集更多的資料集,是正負樣本數量一致;一般為隨機取樣,包含過取樣或者欠取樣;
(2)改變模型訓練時的目標函式,使得不同類別有不同的權重來矯正不平衡性;當差距太大時,可以轉化為單類學習或者異常檢測等。
q5:特徵選擇/提取常用的方法?q6:sift(尺度不變特徵轉化)特徵提取?
應該是看我專案上有關於影象分類或目標檢測的內容才問的,其實我並不是很懂這個;
(1). 尺度空間極值檢測;
(2). 關鍵點定位;
(3). 方向賦值;
(4). 關鍵點描述。
*******問題其實很多,聊了大概乙個小時,主要會從簡歷的專案出發,問題只記得這幾個,但範圍很廣,從演算法原理到演算法落地時實際的處理方式,各方面都需要好好準備。
機器學習崗位面試問題彙總 之 SVM
自己結合網路 書本內容總結,歡迎指正歡迎補充。更新日期 20170607 版本1 1.簡述svm 二分類模型 更嚴格優化條件 更好分界線,低維 高維,間隔最大的分割平面,不太容易過擬合 2個原因 多層感知機 sigmoid核 3種分類,2種求解方法 2.svm的主要特點 1 非線性對映 理論基礎 2...
機器學習崗位面試問題彙總 之 深度學習
自己結合網路內容總結,歡迎指正歡迎補充。最新更新 20170624 版本2 增加22 28 1.模式識別 機器學習 深度學習的區別與聯絡 模式識別 過去 程式 機器做智慧型的事 決策樹等 機器學習 熱點領域 給資料 學習資料 深度學習 前言領域 強調模型 2.早年神經網路被淘汰的原因 耗時 區域性最...
深度學習崗位面試問題整理筆記
更新幾個面試被問到或者聯想出來的問題,後面有時間回答 監督學習 遷移學習 半監督學習 弱監督學習 非監督學習?softmax loss推一下 本筆記主要問題來自以下兩個問題,後續會加上我自己面試過程中遇到的問題。深度學習相關的職位面試時一般會問什麼?會問一些傳統的機器學習演算法嗎?如果你是面試官,你...