import requests
#設定請求引數,以字典key-val形式儲存
payload=
#設定請求頭資訊,以字典key-val形式儲存
header=
#使用requests傳送乙個get請求
r1=requests.get(
'',params=payload,headers=header)
print
('get請求的響應結果是:'
,r1.text)
#使用requests傳送乙個post請求
r2=requests.post(
'',data=payload,headers=header)
print
('post請求的響應結果是:'
,r2.text)
執行結果是:
get請求的響應結果是:
,"headers":,
"url"
:"?foo1=bar1&foo2=bar2"
}post請求的響應結果是:
,"data":""
,"files":,
"form":,
"headers":,
"json":,
"url"
:""}
import requests
#設定請求引數,以字典key-val形式儲存
payload=
#設定請求頭資訊,以字典key-val形式儲存
header=
#使用requests傳送乙個post請求
resp=requests.post(
'',data=payload,headers=header)
print
('請求的url:'
,resp.url)
print
('響應碼:'
,resp.status_code)
print
('響應頭:'
,resp.headers)
print
('響應cookie:'
,resp.cookies)
print
('請求歷史:'
,resp.history)
print
('響應內容的編碼格式:'
,resp.encoding)
print
('響應內容,位元組型別bytes:'
,resp.content)
print
('響應內容,unicode型別:'
,resp.text)
ifin resp.headers.get(
'content-type'):
print
('響應內容轉為json物件'
,resp.json(
))
執行結果是:
請求的url: http:
響應碼: 200
響應頭:
響應cookie: >
]>
請求歷史: [
]響應內容的編碼格式: utf-
8響應內容,unicode型別:
,"data":""
,"files":,
"form":,
"headers":,
"json":,
"url"
:""}響應內容轉為json物件
,'data':''
,'files':,
'form':,
'headers':,
'json':,
'url'
:''}
import requests
#cookie引數通過requests的cookies引數傳遞
r1=requests.get(
'',cookies=
)#cookie引數通過headers引數傳遞
r2=requests.get(
'',headers=
)print
(r1.text)
print
(r2.text)
執行結果是:
}}
session會自動管理cookie,乙個session物件會保持同乙個對話中的所有請求之間的cookie資訊
import requests
r1=requests.post(
'')print
('request第一次響應cookie'
,r1.cookies)
r2=requests.post(
'')print
('request第二次請求cookie:'
,r2.request._cookies)
#建立session例項
s=requests.session(
)r3=s.post(
'')print
('session第一次響應cookie:'
,r3.cookies)
r4=s.post(
'')print
('session第二次請求cookie:'
,r4.request._cookies)
執行結果是:
request第一次響應cookie >
]>
request第二次請求cookie: ]>
session第一次響應cookie: >
]>
session第二次請求cookie: >
(r.text)
# 需求:校驗響應時間在乙個特定值內才會認為介面返回成功
# 思路:輪循10次,介面請求;當時間超過2s,認為是失敗
('執行錯誤'
)
Python爬蟲 HTTP協議 Requests庫
http協議 http hypertext transfer protocol 即超文字傳輸協議。url是通過http協議訪問資源的internet路徑,乙個url對應乙個資料資源。http協議對資源的操作 requests庫提供了http所有的基本請求方式。官方介紹 requests庫的6個主要方...
python 爬蟲系列02 認識 requests
本系列所有文章基於 python3.5.2 requests 是基於 urllib 的三方模組,相比於 uillib,操作更簡潔,功能更強大,而且支援 python3 getimport requests r requests.get url print r.status code print r....
python小白學習記錄 爬蟲requests篇
一 引用庫 import requests 二 請求訪問url,網頁相應 res requests.get 網頁位址 三 表明返回內容 目前返回的response物件有四種屬性 status code 檢查請求是否成功 content 將資料轉換為二進位制資料 text 將資料轉換為字串型資料 en...