當前想要從網路上批量獲取大量資源就需要使用爬蟲這一項技術,今天我來分享一下python的request庫的簡單應用。
response =requests.get(
"")
print
(response.text)
import requests
import json
response = requests.get(
"")print
(type
(response.text)
)print
(response.json())
print
(json.loads(response.text)
)print
(type
(response.json())
)
# coding:utf-8
import requests
url =
""r = requests.get(url)
f =open
("d:\桌面\《美國工廠》.mp4"
,'wb'
)f.write(r.content)
f.close(
)
headers是**的頭部資訊,我們可以自由定製,如當我們直接通過requests請求知乎**的時,預設是無法訪問的。這時候我們就需要定製頭部資訊,使它能夠通過**的識別,從而對其進行訪問。
import requests
response =requests.get(
"")print
(response.text)
>>
>
400 bad request<
/title>
<
/head>
"white"
>
400 bad request<
/h1>
<
/center>
openresty<
/center>
<
/body>
<
/html>
因為訪問知乎需要頭部資訊,這個時候我們在谷歌瀏覽器裡輸入chrome://version,就可以看到使用者**,將使用者**新增到頭部資訊。
mozilla/
5.0(windows nt 10.0
537.36
(khtml, like gecko) chrome/
72.0
.3626
.109 safari/
537.36
獲取到瀏覽器的頭部資訊後我們將其新增進去:
import requests
headers =
response =requests.get(
"",headers=headers)
print
(response.text)
通過在傳送post請求時新增乙個data引數,這個data引數可以通過字典構造成,這樣對於傳送post請求就非常方便。
import requests
data =
response = requests.post(
"",data=data)
print
(response.text)
獲取cookie
import requests
response = requests.get(
"")print
(response.cookies)
for key,value in response.cookies.items():
print
(key+
"="+value)
cookie的乙個作用就是可以用於模擬登陸,做會話維持。
import requests
s = requests.session(
)#建立乙個session物件
s.get(
"")#請求**1
response = s.get(
"")#請求**2,這時同一網域名稱下,用的是同乙個session
insecurerequestwarning)
解決方法為:
import requests
from requests.packages import urllib3
urllib3.disable_warnings(
)response = requests.get(
"",verify=
false
)print
(response.status_code)
**設定
import requests
proxies=
response = requests.get(
"",proxies=proxies)
print
(response.text)
一 解密網路爬蟲之Request庫
request庫的七個常用方法 方法 說明1 request.request 構造乙個請求,支援以下各種方法的基礎方法 2 request.get 獲得html網頁的主要資訊,對應於http的get 3 request.head 獲取html網頁的頭資訊,對應於http的head 4 request...
python爬蟲利器 request庫
request庫比urllib2庫更為高階,因為其功能更強大,更易於使用。使用該庫可以十分方便我們的抓取。基本請求 r requests.get r requests.post r requests.put r requests.delete r requests.head r requests.o...
爬蟲request庫簡單使用
為什麼要學習requests,而不是urllib requests的底層實現就是urllib requests在python2和python3通用,法完全 樣 requests簡單易 requests能夠 動幫助我們解壓 gzip壓縮的 網頁內容 requests的作用 作 傳送 絡請求,返回相應資...