import requests
url =
""# 兩種請求方式
# 使用get請求
rsp = requests.get(url)
print
(rsp.text)
# 使用request請求
rsp = requests.request(
"get"
, url)
print
(rsp.text)
'''
使用引數headers和params
研究返回結果
'''import requests
# 完整訪問url是下面url加上引數構成
url =
"/s?"
kw =
headers =
rsp = requests.get(url, params=kw, headers=headers )
print
(rsp.text)
# 返回主頁html
print
(rsp.content)
# 返回bytes流
print
(rsp.url)
# 返回請求**,編碼後的
print
(rsp.encoding)
# 返回編碼方式
print
(rsp.status_code)
# 請求返回碼
proxy
使用者驗證
web客戶端驗證
cookie
session
https請求驗證ssl證書
Python爬蟲 HTTP協議 Requests庫
http協議 http hypertext transfer protocol 即超文字傳輸協議。url是通過http協議訪問資源的internet路徑,乙個url對應乙個資料資源。http協議對資源的操作 requests庫提供了http所有的基本請求方式。官方介紹 requests庫的6個主要方...
python 爬蟲系列02 認識 requests
本系列所有文章基於 python3.5.2 requests 是基於 urllib 的三方模組,相比於 uillib,操作更簡潔,功能更強大,而且支援 python3 getimport requests r requests.get url print r.status code print r....
python小白學習記錄 爬蟲requests篇
一 引用庫 import requests 二 請求訪問url,網頁相應 res requests.get 網頁位址 三 表明返回內容 目前返回的response物件有四種屬性 status code 檢查請求是否成功 content 將資料轉換為二進位制資料 text 將資料轉換為字串型資料 en...