python爬蟲入門之簡單爬取百度頁面

2021-10-22 14:29:07 字數 1261 閱讀 7836

翻到最底,獲知user-agent(這個可以逮住乙個使勁薅)

需要的資料差不多都齊了,接下來開始懟**:

首先匯入requests包。

import  requests
第一步指定好url:

if __name__ == '__main__':

#step1:指定url

url = ''

第二步發起請求

#step2:發起請求

response = requests.get(url=url)

第三步獲取到相應資料

#step3:獲取相應資料,text返回的是以字串形式地響應資料

wenben = response.text

print(wenben)

第四步持久化儲存

#step4:持久化儲存

print("爬取結束")

源**:

import  requests

if __name__ == '__main__':

#step1:指定url

url = ''

#step2:發起請求

response = requests.get(url=url)

#step3:獲取相應資料,text返回的是以字串形式地響應資料

wenben = response.text

print(wenben)

#step4:持久化儲存

print("爬取結束")

本地執行**,會發現同目錄下出現乙個名為baidu.html的檔案。

點開執行。

勉強算是成功了吧。。。

Python簡單爬蟲(爬取天氣資訊)

初學python,學到python爬蟲時在網上找資料,發現找到的大部分都是前部分內容對運作方式介紹,然後就直接上 了,這樣對像我一樣的小白來說比較困難,的注釋較少,部分 塊沒有詳細說明運作方式和具體作用,所以寫此筆記方便別人和自己以後進行學習檢視。作業系統window python2.7.10 wi...

Python爬蟲之爬取動漫之家

python爬蟲之爬取動漫之家 小白上手爬蟲第一天,簡單爬取 動漫之家。小小目標 1.爬取5頁的動漫 2.以list返回其動漫位址和動漫名字 簡單粗暴,直接附上原始碼 import requests import re 獲取頁面 defgethtmltext url try kv r request...

python爬蟲初戰之小說爬取

廢話不多說,上 總體思路是構建函式然後迴圈。函式分兩塊,第乙個函式得到標題和每一章節的 第二個函式得到每一章節的具體內容,然後迴圈就ok。import urllib.request as req import re 開啟頁面,找到正文 url name 流星蝴蝶劍 defget url title ...