目標**:
爬取搜尋出來的所有「中東人」的:
先說一下思路:
來看爬取的**:
import requestsimport re
from bs4 import beautifulsoup
address = ""
url_list = #用於儲存,每個頁面的url列表
# 構造url
def get_url_list():
for i in range(1, 3): #規定爬取到的頁數,這裡爬取到第二頁
url = address + str(i) + '.html'
return url_list
def run():
y = 1
i = 0
for url in get_url_list(): #這個迴圈用於依次爬取頁面
html = requests.get(url=url).text #請求頁面
soup = beautifulsoup(html, 'lxml')
divs = str(soup.find_all(attrs=)) #獲取存放鏈結的那一部分文字,並轉換為字串,正則必須是字串型別要不不能進行匹配
for lianjie in lianjies: #這個迴圈用於儲存頁面中的每一張
print("第張儲存完成".format(i))
print("第頁爬取完成".format())
y += 1
if __name__ == '__main__':
run()
python爬蟲簡單例項
通過在網頁上右鍵來檢視審查元素,然後在html內可以發現以下內容,而爬蟲也正是要爬取這些內容。處理標籤開始 defstart element self,name,attrs if name map name attrs title number attrs href 處理標籤結束 defend el...
簡單python爬蟲例項
先放上url,這是豆瓣的乙個 排行榜,這裡爬取了左邊部分的歌曲排行榜部分,爬蟲很簡單,就用到了beautifulsoup和requests這兩個庫,爬取後分吧把內容儲存到txt,csv和資料庫 0x01 儲存到txt import requests from bs4 import beautiful...
python爬蟲簡單 python爬蟲 簡單版
學過python的帥哥都知道,爬蟲是python的非常好玩的東西,而且python自帶urllib urllib2 requests等的庫,為爬蟲的開發提供大大的方便。這次我要用urllib2,爬一堆風景。先上重點 1 response urllib2.urlopen url read 2 soup...