看的第一本** 懷舊一下 hhhhh
**如下 ( 使用正規表示式進行匹配 )
#**爬蟲 《星辰變》import re
import requests
url="" #**目錄
txt=requests.get(url).content.decode("utf-8")
j=re.compile(r"(.+?)
") #匹配正則
ml=j.findall(txt)
mlist=[(i[1],url+i[0]) for i in ml] #將章節和**儲存成列表mlist ,
#print(mlist)
with open("11.txt","w",encoding="utf-8") as f:
for i in mlist:
t1=requests.get(i[1]).content.decode("utf-8",errors="ignore") #忽略錯誤
zw1=re.compile(r'tent">(.+?)') #正則匹配正文部分
zw=zw1.findall(t1)[0]
zw=zw.replace(" ","") #因為解碼格式不同 將亂碼替換掉
zw=zw.replace("
","")
zw=zw.replace("","")
zw=zw.replace("readx();","")
f.write(i[0]+"\n\n\n")
f.write(zw+"\n\n\n")
Python爬取小說
感覺這個夠蛋疼的,因為你如果正常寫的話,前幾次執行沒問題,之後你連 都沒改,再執行就出錯了。其實這可能是網路請求失敗,或者有反爬蟲的東西吧。但這就會讓你寫的時候非常苦惱,所以這這東西,健壯性及其重要!import requests from bs4 import beautifulsoup impo...
python 爬取小說
前些天突然想看一些 可能是因為壓力大,所以就要有補償機制吧。為了節省流量,就想著把內容爬下來,然後就可以在路上看了。於是有了下面的指令碼。usr bin env python coding utf 8 import requests from lxml import etree 為了解決unicod...
python爬取小說
一 準備 安裝 requests pyquery庫 二 使用 定義了search類 初始化時傳入 第一章url 和 名即可 再呼叫all content方法即可 coding utf8 import re import requests from requests.exceptions import...