上週已經分享過搜狗·疫情資料爬取(r語言),這次分享一下搜狗·疫情資料爬取(python)
from urllib import request各城市(部分)資料如下:from lxml import etree
import re
import pandas as pd
import json
url=""
response = request.urlopen(url) #請求
html = response.read()#獲取
html = html.decode("utf-8")#解碼
xml = etree.html(html)
datas = xml.xpath('//html/body/script[1]/text()')
datas=re.sub('window.type_page = \"web\"\n window.__initial_state__ = ',"",datas[0])
area=json_data["data"]["area"]
citytempdate =
provincetempdate =
for i in area:
provinceshortname = i["provinceshortname"]
confirmedcount = i["confirmedcount"]
curedcount = i["curedcount"]
deadcount = i["deadcount"]
for j in i["cities"]:
cityname = j["cityname"]
confirmedcount=j["confirmedcount"]
curedcount=j["curedcount"]
deadcount=j["deadcount"]
dt_city = pd.dataframe(citytempdate,columns=["provinceshortname","cityname","confirmedcount","curedcount","deadcount"])
dt_province = pd.dataframe(provincetempdate,columns=["provinceshortname","confirmedcount","curedcount","deadcount"])
provinceshortname
cityname
confirmedcount
curedcount
deadcount0湖北
武漢41152
3507
13091湖北
孝感3279
449702湖北
黃岡2831
839783湖北
荊州1501
305374湖北
鄂州1274
244355湖北
隨州1267
140246湖北
襄陽1155
15120
各省分總體(部分)資料如下:
provinceshortname
confirmedcount
curedcount
deadcount0湖北
58182
6693
16961廣東
1322
52442河南
1246
509163浙江
1171
50704湖南
1006
49835安徽
97328066
江西930
27517江蘇
62625808
重慶552
21159山東
541191
2:csdn:
github(資料、**):
Python爬取疫情資料
實現 輸出結果 import requests 請求庫 import pandas as pd 日期 today time.strftime y m d time.localtime format y 年 m 月 d 日 url 請求頭 headers 傳送請求 response requests....
使用Python進行疫情資料爬取
為了使用python學習爬取疫情資料,提前學習了python中的語法和各種儲存結構 dirt 若沒有這些基礎很難看懂python 更別提寫了 放入要爬的url url 設定header做乙個防爬機制 獲取response的json response requests.get url,headers ...
爬取最新疫情資料
題目 程式設計爬取每日最新的疫情統計資料。並將爬取結果匯入到資料庫中。將視覺化結果與統計資料結合,實時顯示當前最新資料。這次的作業與上次周的視覺化可以整合成乙個完整的 只需要在這次加上python爬取資料即可 爬取的 如下 1 from os import path 2import requests...