requests 模組
具體詳見:
requests 是用python語言編寫的第三方庫,基於 urllib,採用 apache2 licensed 開源協議的 http 庫。它比 urllib 更加方便,完全滿足 http 測試需求,多用於介面測試
常用介面:
1.requests.request(method,url,**kwargs)
構造並傳送乙個request物件,返回乙個response物件,支撐各方法的基礎方法
method:新建request物件要使用的http方法,包括:get,post,put,delete等
url:新建request物件的url鏈結
**kwargs:13個控制訪問的可選引數
2.requests.get(url, params=none, **kwargs)
請求獲取url位置的資源
url:新建request物件的url鏈結3.requests.head(url, **kwargs)params:字典或位元組序列,作為引數增加到url中
**kwargs:12個控制訪問的可選引數(除params外其他同1)
請求獲取url位置資源的響應訊息報告,即獲得該資源的響應的頭部資訊
4.requests.post(url, data=none, json=none, **kwargs)
請求向url位置的資源後附加新的資料
url:新建request物件的url鏈結5.requests.put(url, data=none, **kwargs)data:字典、位元組序列,檔案,作為request物件body的內容
json:json格式的資料,作為request物件body的內容
**kwargs:11個控制訪問引數(除data,json外其他同1)
請求向url位置儲存的乙個資源,覆蓋原url位置的資源
url:新建request物件的url鏈結6.requests.patch(url, data=none, **kwargs)data:字典、位元組序列,檔案,作為request物件body的內容
**kwargs:12個控制訪問引數(除data外其他同1)
請求區域性更新url位置的資源,即改變該處資源的部分內容
url:新建request物件的url鏈結7.requests.delete(url, **kwargs)data:字典、位元組序列,檔案,作為request物件body的內容
**kwargs:12個控制訪問引數(除data外其他同1)
請求刪除url位置儲存的資源
8. r.text
讀取伺服器響應的內容
9. r.encoding
獲取伺服器響應的文字編碼
10. r.content
以位元組的方式訪問請求響應體,對於非文字請求
11. r.json()
成功呼叫r.json()
並**不**意味著響應的成功。有的伺服器會在失敗的響應中包含乙個 json 物件(比如 http 500 的錯誤細節)。這種 json 會被解碼返回
12. r.status_code
響應狀態碼
使用 json 函式需要匯入 json 庫:import json。
函式描述
json.dumps
將 python 物件編碼成 json 字串
json.loads
將已編碼的 json 字串解碼為 python 物件
PyThon第三方庫
本文 自 戀花蝶的部落格 今天公司停電,沒上班。跑上來更新個部落格,跟大家分享一下我常用的幾個第三方 python 庫。python 語言之所以能夠如此流行,除了本身內建許多程式庫來保障快速開發之外,目不睱接的第三方庫也是一大主因。結合我目前的工作 網遊開發 我常用的幾個第三方庫如下 wxpytho...
python第三方庫
網路爬蟲是自動進行http訪問並獲取html頁面的程式。常用的python網路爬蟲庫 一 requests requests庫是乙個簡潔且簡單的處理http請求的第三方庫,它的最大優點是程式編寫過程更接近正常url訪問 過程。這個庫建立在python語言的urllib3庫基礎上。request庫支援...
python第三方庫BeautifulSoup
beautiful soup是的乙個庫,最主要的功能是從網頁抓取資料。有了它我們可以很方便地提取出html或xml標籤中的內容 我本地安裝的是python2.7,安裝時自動安裝了pip,在命令列直接輸入 pip install beautifulsoup4 即可,推薦安裝beautifulsoup4...