有的網頁在爬取時候會報錯返回
這是**在檢測連線物件,所以需要偽裝瀏覽器,設定user agent
在瀏覽器開啟網頁 ---> f12 ---> network ---> 重新整理
然後選擇一項 就是在 header 看到 user-agent
import urllib.request #url包def openurl(url):
headers =
req = urllib.request.request(url, headers=headers)
response = urllib.request.urlopen(req) #請求
html = response.read() #獲取
html = html.decode("utf-8") #解碼
print(html) #列印
if __name__ == "__main__":
url = "" #''
openurl(url)
爬蟲瀏覽器偽裝
先引入模組 urllib.request和re import requests import re定義乙個url鏈結 url 瀏覽器偽裝,定義乙個headers頭 headers user agent 將headers新增到真實的報頭中去,首先建立乙個opener物件,再將其新增進去 opener ...
Python 爬蟲瀏覽器偽裝技術
瀏覽器偽裝技術實戰 1 常見的反爬蟲和應對方法 前兩種比較容易遇到,大多數 都從這些角度來反爬蟲。第三種一些應用ajax的 會採用,這樣增大了爬取的難度。通過headers反爬蟲 基於使用者行為反爬蟲 動態頁面的反爬蟲 2 請求頭headers介紹 1 請求 客戶端 服務端 request get ...
Python網路爬蟲(瀏覽器偽裝技術)
基本格式 欄位名 字段值 2 欄位2 accept encoding gzip,deflate 這一行欄位的資訊表示瀏覽器可以支援gzip,deflate等壓縮編碼。3 欄位3 accept language zh cn,zh q 0.8,en us q 0.5,en q 0.3 這一行欄位的資訊表...