response =requests.get(url,params,headers,cookies,timeout)
其中url是請求的網頁位址,params可以傳遞引數,一般是字典的資料格式,headers是請求頭,也是字典的格式,一般包含ua資訊(user-agent)和referer(防盜煉)。timeout是設定超時的時間。
response.text 返回headers中的編碼解析的結果
response.content 返回二進位制結果
response.json() 返回json格式,等同於json.loads(response.text)方法,可能丟擲異常。
response.status_code 返回獲取網頁時的狀態碼,200為正常訪問。
response.raw 返回原始socket respons,需要加引數stream=true。
response.encoding 可以定義網頁的編碼方式
response = requests.post(url,data,files)
url是提交請求的**,data是乙個字典形式的資料表單,files是在檔案上傳時使用的,需要傳入乙個類似於的字典。
cookies的乙個作用就是可以用於模擬登陸,做會話維持,而使用session可以將cookies資訊儲存下來,下次請求時就不需要再次傳入cookies。
session = requests.session()
session.get(url)
將網頁的cookies資訊傳入session中,下次訪問網頁時會自動傳入cookies。
在requests.get(url,verify)
中verify預設是true,可以設為false,會跳過證書驗證,也可以設為乙個證書路徑,則會驗證該指定證書。
proxies =
當需要使用者名稱和密碼時就要新增「user:password@」這一段,如果不需要密碼,則去除這一段。
通過response = requests.get(url, proxies=proxies)
使用**ip來訪問網頁。
PyThon第三方庫
本文 自 戀花蝶的部落格 今天公司停電,沒上班。跑上來更新個部落格,跟大家分享一下我常用的幾個第三方 python 庫。python 語言之所以能夠如此流行,除了本身內建許多程式庫來保障快速開發之外,目不睱接的第三方庫也是一大主因。結合我目前的工作 網遊開發 我常用的幾個第三方庫如下 wxpytho...
python 第三方庫
requests 模組 具體詳見 requests 是用python語言編寫的第三方庫,基於 urllib,採用 apache2 licensed 開源協議的 http 庫。它比 urllib 更加方便,完全滿足 http 測試需求,多用於介面測試 常用介面 1.requests.request m...
python第三方庫
網路爬蟲是自動進行http訪問並獲取html頁面的程式。常用的python網路爬蟲庫 一 requests requests庫是乙個簡潔且簡單的處理http請求的第三方庫,它的最大優點是程式編寫過程更接近正常url訪問 過程。這個庫建立在python語言的urllib3庫基礎上。request庫支援...