1. 如下散點圖使用了邏輯回歸(黑線是決策邊界)對所有資料點進行了正確分類。若使用 high(infinite) regularisation(正則化無限大)時偏差會如何變化?
a 偏差很大
b 偏差很小
c 不確定
d 都不是
2. 假設,下圖是邏輯回歸的代價函式
現在,圖中有多少個區域性最小值?
a 1
b 2
c 3
d 4
3. 對於任意值「x」,考慮到
logistic(x):是任意值「x」的邏輯(logistic)函式
logit(x):是任意值「x」的logit函式
logit_inv(x):是任意值「x」的逆邏輯函式
以下哪一項是正確的?
a logistic(x)= logit(x)
b logistic(x)= logit_inv(x)
c logit_inv(x)= logit(x)
d 都不是
4. 以下哪個影象顯示y = 1的代價函式?
以下是兩類分類問題的邏輯回歸(y軸損失函式和x軸對數概率)的損失函式。
注:y是目標類
a a
b b
c 兩者
d 這些都沒有
5. 以下哪些選項為真?
a 線性回歸誤差值必須正態分佈,但是在logistic回歸的情況下,情況並非如此
c 線性回歸和邏輯回歸誤差值都必須正態分佈
d 線性回歸和邏輯回歸誤差值都不能正態分佈
6. 在龐大的資料集上使用logistic回歸模型需要很長時間才能訓練,如何花費更少的時間,並給出比較相近的精度?
a 降低學習率,減少迭代次數
b 降低學習率,增加迭代次數
c 提高學習率,增加迭代次數
d 增加學習率,減少迭代次數
7. logit函式(給定為l(x))是機率函式的對數。域x = [0,1]中logit函式的範圍是多少?
a ( - ∞,∞)
b (0,1)
c (0,∞)
d ( - ∞,0)
8. 所謂機率,是指發生概率和不發生概率的比值。所以,拋擲一枚正常硬幣,正面朝上的機率(odds)為多少?
a 0.5
b 1
c 都不是
9. 假設你在測試邏輯回歸分類器,設函式h為
下圖中的哪乙個代表上述分類器給出的決策邊界?
10. 下圖顯示了三個邏輯回歸模型的auc-roc曲線。不同的顏色表示不同超引數值的曲線。以下哪個auc-roc會給出最佳結果?
a 黃色
b 粉紅色
c 黑色
d 都相同
獲取答案和詳細的答案解析:
機器學習題 含答案和解析
1.目標變數在訓練集上的7個實際值為 1,1,1,1,0,0,0 目標變數的熵近似值是 log3 7 0.847,log4 7 0.560 a 0.683 b 0.683 c 0.724 d 0.243 2.關於k means聚類演算法說法不正確的是 a 對大資料集有較高的效率並且具有可伸縮性。b ...
機器學習題 含答案和解析
1.假設x公司的員工收入分布中位數為 35,000,25 和75 比例處的數值為 21,000 和 53,000。收入 1會被認為是異常值嗎?a 是 b 否 c 需要更多資訊 d 以上都不對 2.眾所周知,身高體重呈正相關。忽略圖表大小 變數被標準化了 下列兩張圖哪張更像描繪身高 x軸 體重 y軸 ...
機器學習題 含答案和解析
a 只有 1 b 只有 2 c 只有 3 2.下面哪個 些超引數的增加可能會造成隨機森林資料過擬合?1 樹的數量 2 樹的深度 3 學習速率 a 只有 1 b 有1 2 c 只有 3 d 都正確 3.下面哪一項對梯度下降 gd 和隨機梯度下降 sgd 的描述是正確的?1 在 gd 和 sgd 中,每...