首先我學習時用的是114黃頁資料。
下面四個是用到的模組,前面2個需要安裝一下,後面2個是python自帶的。
import requests
from bs4 import beautifulsoup
import csv
import time
然後,寫個函式獲取到頁面種想要的資料,記得最後的return返回一下,因為下面的函式要到把資料寫到csv裡面。
def
get_content
(url,data=none):
header =
r = requests.get(url, headers=header)
soup = beautifulsoup(r.content, 'html.parser')
data = soup.body.find('div',)
ul = data.find('ul')
lis = ul.find_all('li')
pthons=
for item in lis:
rows=
name= item.find('h4').string
tel = item.find_all("div")[2].string
time.sleep(1)
return pthons
接著:把資料寫到**裡面。我這裡用到的是csv,方便閱覽。
def
write_data
(data,name):
file_name=name
with open(file_name, "w", newline='') as csvfile:
writer = csv.writer(csvfile)
writer.writerow(["商鋪名稱", "聯絡**"])
writer.writerows(data)
print('抓取完成')
最後就是執行這些函式:
if __name__ == '__main__':
url = ''
mydata = get_content(url)
write_data(mydata,'phone.csv')
在這裡我想到應該把url寫成動態的,因為這裡面有頁數。讓page寫成迴圈自動+1,當然,可以在網頁看到一共多少頁。寫個迴圈執行。就更完美了。
Python爬取商家聯絡電話以及各種資料
首先我學習時用的是114黃頁資料。下面四個是用到的模組,前面2個需要安裝一下,後面2個是python自帶的。import requests from bs4 import beautifulsoup import csv import time 然後,寫個函式獲取到頁面種想要的資料,記得最後的ret...
requests lxml xpath爬取電影天堂
1.匯入相應的包 import requests from lxml import etree 2.原始ur 我們要爬取的是最新電影,在該介面中,我們發現,具體的資訊儲存在每個名字的鏈結中,因此我們要獲取所有電影的鏈結才能得到電影的資訊。同時我們觀察url,發現 list 23 1,最後的1是頁面位...
python爬蟲之scrapy爬取豆瓣電影(練習)
開發環境 windows pycharm mongodb scrapy 任務目標 任務目標 爬取 豆瓣電影top250 將資料儲存到mongodb中。items.py檔案 coding utf 8 define here the models for your scraped items see d...