首先,需要安裝requests庫
安裝requests庫
管理員方式執行cmd,輸入pip install requests即可
#亞馬遜會檢測**
import requests
url=
""try:
kv=r=requests.get(url,headers=kv)
r.raise_for_status(
) print
(r.text[
1000
:2000])
except
:print
("抓取失敗"
)
import requests
keyword=
"python"
try:
kv=r=requests.get(
"",params=kv)
r.raise_for_status(
)print
(len
(r.text)
)except
:print
("爬取失敗"
)
3.ip位址的查詢
import requests
url=
""try:
r=requests.get(url+
'222.204.3.221'
) r.raise_for_status(
) print
(r.text[
-500:]
)except
:print
("爬取失敗"
)
#的爬取
import requests
import os
url=
""root=
"e://pic//"
path=root+url.split(
'/')[-
1]try:
ifnot os.path.exists(root)
: os.mkdir(root)
ifnot os.path.exists(path)
: r=requests.get(url)
with
open
(path,
'wb'
)as f:
f.write(r.content)
f.close(
)print
("檔案儲存成功"
)else
:print
("檔案已存在"
)except
:print
("爬取失敗"
)
python爬蟲 Requests庫爬取實戰(三)
我們先開始最簡單的抓取頁面,import requests 匯入requests庫 url try r requests.get url 通過requests庫的get方法 r.raise for status 判斷返回的狀態碼是否為200,不是200返回異常 print r.text 輸出網頁的源...
爬蟲筆記 Requests庫的應用(網頁爬取)
上次介紹了requests庫的一些引數和函式,今天我給大家介紹一些requests庫的小應用,所有學習都是基於 python網路爬蟲與資訊提取 對於requests這個庫來說,最主要的功能就是進行網頁的爬取,其實爬取的方式基本上都大致相同,所以在這裡我們介紹一種網頁爬取框架 爬取網頁通用 框架 im...
簡單的爬蟲爬取文章
我們會用一些簡單的爬蟲去爬取 等,那麼在別人的 中我們的應選擇對應的標題等資料作為爬取的內容標桿 如以下 模擬瀏覽器發請求 connection connect jsoup.connect document doc connect.get elements select doc.select lis...