from selenium.webdriver.common.keys import keys
browser = webdriver.chrome(
)browser.get(
'')# 1、在搜尋框中輸入"selenium"
browser.find_element_by_id(
'kw'
).send_keys(
'趙麗穎'
)# 2、輸入空格
browser.find_element_by_id(
'kw'
).send_keys(keys.space)
# 3、ctrl+a 模擬全選
browser.find_element_by_id(
'kw'
).send_keys(keys.control,
'a')
# 4、ctrl+c 模擬複製
browser.find_element_by_id(
'kw'
).send_keys(keys.control,
'c')
# 5、ctrl+v 模擬貼上
browser.find_element_by_id(
'kw'
).send_keys(keys.control,
'v')
# 6、輸入回車,代替 搜尋 按鈕
browser.find_element_by_id(
'kw'
).send_keys(keys.enter)
from selenium import webdriver
# 匯入滑鼠事件類
from selenium.webdriver import actionchains
driver = webdriver.chrome(
)driver.get(
'')# 移動到 設定,perform()是真正執行操作,必須有
element = driver.find_element_by_xpath(
'//*[@id="u1"]/a[8]'
)actionchains(driver)
.move_to_element(element)
.perform(
)# 單擊,彈出的ajax元素,根據鏈結節點的文字內容查詢
driver.find_element_by_link_text(
'高階搜尋'
).click(
)
【1】執行3條命令,建立專案基本結構
【2】完成爬蟲檔案: spiders/baidu.py
【3】完成settings.py配置
3.1) robotstxt_obey =
false
3.2) default_request_headers =
【4】執行爬蟲
4.1) 建立run.py(和scrapy.cfg同路徑)
【5】執行 run.py 執行爬蟲
【1】使用selenium+瀏覽器 獲取有道翻譯結果
【2】使用selenium+瀏覽器 登入網易qq郵箱 : https:
【3】使用selenium+瀏覽器 登入網易163郵箱 : https:
【4】熟記scrapy的五大元件,以及工作流程,能夠描述的很清楚
Python爬蟲學習筆記 七
json是輕量級的資料互動格式 給使用者看的,展示資料的 簡單理解就是乙個字點或者list 書寫格式 不能寫注釋 key value 必須都是雙引號 末尾不能寫逗號 整個檔案有且僅有乙個或 字串 loads coding gbk import json 1 字串和dic list轉換 字串 json...
Python爬蟲學習(七)Scrapy爬蟲框架詳解
engine從spider處獲得爬取請求 request engine將爬取請求 給scheduler,用於排程 engine從scheduler處獲得下乙個要爬取的請求 engine將爬取請求通過中介軟體傳送給 爬取網頁後,形成響應 response 通過中介軟體發給engine engine將收...
爬蟲學習日記(七)
今天上午繼續在弄whlc的東西,是環境的問題。關於這個是因為我之前研究過這個 確實是不能搜尋超過乙個月,會報乙個錯,所以當時間超過1個月是,我會返回乙個noresult的exception,我以為這是正確的。但是站在客戶的角度講,他可能會需要搜尋到兩個月,三個月的的資訊,而這些資訊是存在的,只要在 ...