參考:
關於scrapy命令列工具的配置檔案,其格式為ini。配置檔案存在於以下幾個地方:
/etc/scrapy.cfg or c:\scrapy\scrapy.cfg 這個是系統級配置檔案
~/.config/scrapy.cfg
($xdg_config_home
) and~/.scrapy.cfg
這個是使用者級
專案內的scrapy.cnf,專案級。
原來專案內自動生成的scrapy.cnf是用來配置scrapy命令列工具的。
上邊三個優先順序由低到高,最終的配置是三個檔案合併的結果。
scrapy命令列可也可通過環境變數配置,這個後邊再說。
預設的scrapy專案的目錄結構:
scrapy.cfg
myproject/
__init__.py
items.py
middlewares.py
pipelines.py
settings.py
spiders/
__init__.py
spider1.py
spider2.py
...
裡邊有一項,指向專案中的setting.py檔案,後者是python**檔案,裡邊也全是關於配置的:
[settings]
default = myproject.settings
scrapy建立出來的那個根目錄,可以被多個scrapy專案共享,每個scrapy專案都有自己的setting,當然根目錄下的什麼item pipeline之類的定義也可以在多個scrapy專案這間共享,這樣就可以復用了。
[settings]
default = myproject1.settings
project1 = myproject1.settings
project2 = myproject2.settings
其中有乙個default專案,default指的是scrapy專案名稱與根目錄名稱一樣的那個專案。
預設情況下scrapy命令列工具使用default那個專案的配置,可以通過設定scrapy_project環境變數指向其它的專案,如:
$ scrapy settings --get bot_name
project 1 bot
$ export scrapy_project=project2
$ scrapy settings --get bot_name
project 2 bot
一堆命令,看原文吧。反正scrapy這個命令要看在什麼目錄下執行,目錄不同那麼它的配置就不同,還與環境變數有關。 Scrapy 命令列工具
startproject 全域性命令 在當前路徑下建立乙個名為myproject的 scrapy專案 語法 scrapy startproject myproject genspider 需要專案 在當前專案中建立spider僅僅是建立spider的一種快捷方法,可以使用提前定義好的模板來生成spi...
scrapy 命令列操作
1.建立專案 scrapy startproject myproject cd myproject 2.建立爬蟲 scrapy genspider t crawl myspider www.baidu.com 建立有rules配置 3.執行爬蟲 scrapy crawl myspider 4.錯誤檢...
scrapy爬蟲》scrapy命令列操作
1.mysql資料庫 2.mongodb資料庫 3.redis資料庫 1.建立專案 scrapy startproject myproject cd myproject 2.建立爬蟲 scrapy genspider t crawl myspider www.baidu.com 建立有rules配置...