/《機器學習100問》一共分為三部分,分別是上篇,中篇,下篇。每一篇列出最常見的機器學習基礎概念問題。(擬打算在除夕前,出乙個《機器學習100答》,針對這三篇列出的問題,一一作出簡要的回答。)
注:如果只列出名詞,則問題是:它的定義,推導與應用是什麼?
感知機;
k近鄰法;
樸素貝葉斯;
決策樹;
邏輯斯蒂回歸;
svm;
常見的核函式;
boosting;
em;隱馬爾可夫;
條件隨機場;
監督方法總結;
正則化方法;
聚類演算法;
降低維度演算法;
關聯規則學習;
gbdt;
隨機森林;
pca;
模型評估指標;
欠擬合與過擬合;
roc;
auc;
lda;
常見的loss function;
分類演算法總結;
分類網路或回歸的區別;
梯度下降法的原理;
各種梯度下降法的優缺點;
經驗誤差與泛化誤差;
為什麼用roc與auc評價分類器;
偏差與方差;
k折交叉驗證;
類別不平衡;
k-means或knn中, 計算最近的鄰居距離的方法有歐式距離和曼哈頓距離,這兩種方法的區別是什麼?
knn中的k是怎麼取的,為什麼?
lr和svm的區別與聯絡?
lr與線性回歸的區別與聯絡?
邏輯斯蒂回歸為什麼要對特徵進行離散化?
gbdt和xgboost的區別?
判別模型與生成模型的區別?
l1與l2分別服從什麼分布?
adaboost的權值更新公式是什麼?
為何要對資料做歸一化?
歸一化有哪些型別?
哪些機器學習方法不需要做歸一化?
決策樹中的熵是什麼?
如何計算資料集某個特徵的資訊增益?
聯合概率分布與邊緣概率分布;
條件概率的鏈式法則;
期望/方差/協方差/相關係數;
牛頓法與梯度下降法的區別?
svm的kkt條件是什麼?
gbdt隨機森林能否並行訓練?
adam的原理;
交叉熵的定義;
如何優化kmeans?
如何進行特徵選擇?
資料增強的方法;
特徵工程一般包含什麼?
對缺失值敏感的有哪些模型?
梯度消失和梯度**的原因?
如何解決梯度消失和梯度**?
監督學習/非監督學習/半監督學習/弱監督學習;
區域性最優與全域性最優;
混淆矩陣;
產生維數災難的原理,如何避免這個問題;
正確率能很好地評估分類演算法嗎;
分類演算法的評估方法;
lda和pca的區別;
決策樹演算法優缺點;
平移不變性;
先驗概率和後驗概率;
歐式距離的特性;
如何使用二分類器來構造多分類器;
決策樹的兩種剪枝方法;
熵/聯合熵/條件熵/相對熵/互資訊的定義;
最大似然估計;
協調過濾推薦演算法的過程;
協調過濾分幾種;
什麼是推薦準確率和召回率;
文字分類過程;
分詞原理;
什麼是前向匹配演算法和後向匹配演算法;
hmm過程;
apriori;
奇異值分解原理;
fp tree;
貝葉斯個性化排序;
word2vec原理;
特徵選擇;
特徵選擇與降維的區別;
傅利葉變換;
交叉驗證如何用在時間序列資料;
整合學習方法總結;
多重共線性;
如何進行大資料訓練;
什麼是方差與偏差間的均衡;
機器學習和深度學習的區別;
使用機器學習方法,完成乙個有實際意義的專案(tbd)。
深度學習網路總結
機器學習演算法及其應用場景
演算法與資料結構(leetcode 題解)
cuda程式設計與並行優化
其他讀書分享如:《戰國策》,《智囊全集》
宇宙常識科普與星座辨別等等.
深度學習100問
3x3 是最小的能夠捕獲畫素八鄰域資訊的尺寸。兩個 3x3 的堆疊卷基層的有限感受野是 5x5 三個 3x3 的堆疊卷基層的感受野是7x7,故可以通過小尺寸卷積層的堆疊替代大尺寸卷積層,並且感受野大小不變。多個 3x3 的卷基層比乙個大尺寸 filter卷基層有更多的非線性 更多層的非線性函式 使得...
100天搞定機器學習
新增好友麻煩備註 github 100天搞定機器學習 day1資料預處理 100天搞定機器學習 day2簡單線性回歸分析 100天搞定機器學習 day3多元線性回歸 100天搞定機器學習 day4 6 邏輯回歸 100天搞定機器學習 day7 k nn 100天搞定機器學習 day8 邏輯回歸的數學...
機器學習100天(Day 2)
今天的學習內容是簡單線性回歸,簡單了說就是一次線性回歸。直接上 吧!step 1 import pandas as pd import numpy as np import matplotlib.pyplot as plt dataset pd.read csv studentscores.csv ...