線上結果加權:通過每個模型的線上成績進行加權,線上分數高的權重就高,線上成績相對低的權重就低,最終將加權的結果作為最終的結果(需保證所有的結果的 權重之和為1).
data.groupby(col)
['id'
].nunique(
)data.groupby(col)
['day'].
min(
)data.groupby(col)
['day'].
max(
)
sample1: 123,1245,124,012
對結果有較強影響的時間屬性,具有趨勢性,季節性以及週期性
對結果無影響的時間屬性
擁有相對大小的cat特徵,例如年齡段
沒有相對大小的cat特徵,例如顏色等
dic = data[cat]
.value_counts(
).to_dict(
)data[cat+
'_count'
]= data[cat].(
lambda x:dic[x]
)
相同物理意義的num特徵,如不同月份的貸款,可相加減
不同物理意義的num特徵,加減無意義
資訊競賽 DEV C 常用技巧
wall 可以在編譯時顯示最多警告資訊,幫助大家查錯 開啟方式 工具 編譯選項 生成優化 警告 顯示最多警告資訊 改為yes 在考試時,我們常常要對拍,如果dfs層數太多會爆棧,所以這個時候我們需要手工修改棧的大小 修改方式 工具 編譯選項 編譯器 在聯結器命令列加入以下命令 wl,stack 12...
資料競賽 3
lightgbm light gradient boosting machine,是乙個實現gbdt gradient boosting decision tree 演算法的框架,支援高效率的並行訓練,並且具有以下優點 更快的訓練速度 更低的記憶體消耗 更好的準確率 分布式支援,可以快速處理海量資料...
資料競賽 5
stacking 表示學習指的是模型從原始資料中自動抽取有效特徵的過程。stacking先從初始資料集訓練出初級學習器,將初級學習器的輸出當作特徵構成新資料集,利用新資料集再訓練次級學習器 meta learner stacking的框架結構與執行過程如下 假設是五折的stacking,我們有乙個t...