看2.6.20的**,發現裡面用了dev_err,仔細一看才知道不知什麼時候,在include/linux/device.h裡面對於printk有一組完整的封裝。
#define dev_printk(level, dev, format, arg...) \
printk(level "%s %s: " format , dev_driver_string(dev) , (dev)->bus_id , ## arg)
#ifdef debug
#define dev_dbg(dev, format, arg...) \
dev_printk(kern_debug , dev , format , ## arg)
#else
#define dev_dbg(dev, format, arg...) do while (0)
#endif
#define dev_err(dev, format, arg...) \
dev_printk(kern_err , dev , format , ## arg)
#define dev_info(dev, format, arg...) \
dev_printk(kern_info , dev , format , ## arg)
#define dev_warn(dev, format, arg...) \
dev_printk(kern_warning , dev , format , ## arg)
#define dev_notice(dev, format, arg...) \
dev_printk(kern_notice , dev , format , ## arg)
主要是在printk的時候,不用些module/device名字了。
不過單個module的除錯資訊開關,還得需要在這之上封裝喲。
資料規範化
資料分析之前,我們通常需要先將資料標準化 normalization 利用標準化後的資料進行資料分析。資料標準化也就是統計資料的指數化。資料標準化處理主要包括資料同趨化處理和無量綱化處理兩個方面。資料同趨化處理主要解決不同性質資料問題,對不同性質指標直接加總不能正確反映不同作用力的綜合結果,須先考慮...
資料規範化
資料歸一化是指把資料壓縮到 0,1 的區間內。sklearn.preprocessing.minmaxscalar 將資料壓縮到min到max組成的區間,並使其結果落在0到1的範圍內。x x mi nmax min sklearn.preprocessing.standardscalar 將資料轉換...
資料規範化
資料轉化 資料離散化 資料擴充 資料合併與拆分 資料轉化 這部分的目的較多,如分類變數賦值後可以使用更多的分析方法 連續變數轉化為分類變數是因為各人群之間的差異並不大,可以進行分組 標準化的目的是為了消除各變數之間的資料量綱 資料一般化的目的是將同連續變數轉化為分類變數的目的,不需要針對細分的分類進...