**
1、在配置檔案中設定日誌輸出檔名和日誌等級
1、為什麼以日期為檔名?
因為這樣可以方便開發者檢視每天的日誌資訊,同時也可以防止單檔案log日誌資訊堆積的越來越多,所以將當天日誌資訊儲存到當天的日誌檔案中
2、配置選項有日誌等級log_level、日誌檔案路徑log_file,我這裡設定等級為warning
2、在程式中匯入logging模組,對需要輸出的內容進行log日誌輸出
我配置的時候用了warning等級,那麼我將100個1和這是乙個異常定義為warning輸出的時候(logging.warning),則高於或者等於該等級的資訊就能輸出到我的日誌中,低於該級別的資訊則輸出不到我的日誌資訊中
以下是warning級別的資訊,兩條都輸出到log日誌檔案
以下是乙個info,乙個warning級別的資訊,只有warning級別的資訊輸出到log日誌檔案
3、擴充套件
scrapy提供5層logging級別:
critical - 嚴重錯誤
error - 一般錯誤
warning - 警告資訊
info - 一般資訊
debug - 除錯資訊
logging設定
通過在setting.py中進行以下設定可以被用來配置logging:
log_enabled 預設: true,啟用logging
log_encoding 預設: 『utf-8』,logging使用的編碼
log_file 預設: none,在當前目錄裡建立logging輸出檔案的檔名
log_level 預設: 『debug』,log的最低級別
本人經驗有限,不足之處歡迎指正
Python爬蟲 scrapy框架log日誌設定
scrapy提供5層logging級別 1.critical 嚴重錯誤 2.error 一般錯誤 3.warning 警告資訊 4.info 一般資訊 5.debug 除錯資訊通過在setting.py中進行以下設定可以被用來配置logging 以下配置均未預設值 是否啟用日誌 log enable...
scrapy爬蟲框架
作者經過幾周的python爬蟲實踐之後,深入學習了一下scrapy這個爬蟲框架,現將一些基本知識和 總結整理一下,以備後查。2.scrapy的命令列使用 這部分網上很多部落格都有總結,不需要背,理解會用主要的命令 startproject crawl fetch list genspider.即可,...
scrapy 爬蟲框架
1.安裝 公升級pip版本 pip install upgrade pip 通過pip安裝scrapy框架 pip install scrapy 安裝成功 只執行scrapy 進行測試是否安裝成功 2.scrapy startproject 爬蟲專案名稱 執行此命令,可以生成乙個爬蟲專案 會預先生成...