本篇介紹一下使用python刷csdn並沒有什麼卵用的文章閱讀量(誤)
from bs4 import beautifulsoup
import requests
import random
import time
# 定義變數
proxys_src =
proxys =
# 請求獲取**位址
defspider_proxyip
(num=50)
: url =
''# 獲取** ip 列表
req = requests.get(url, headers=create_headers())
source_code = req.content
# 解析返回的 html
soup = beautifulsoup(source_code,
'lxml'
)# 獲取列表行
ips = soup.findall(
'tr'
)# 迴圈遍歷列表
for x in
range(1
,len
(ips)):
ip = ips[x]
tds = ip.findall(
"td"
) proxy_host =
"://"
.format
(tds[5]
.contents[0]
)+ tds[1]
.contents[0]
+":"
+ tds[2]
.contents[0]
proxy_temp =
# 新增到**池
if x >= num:
break
return proxys_src
# **客戶端列表
user_agents =
["mozilla/4.0 (compatible; msie 6.0; windows nt 5.1; sv1; acoobrowser; .net clr 1.1.4322; .net clr 2.0.50727)"
,"mozilla/4.0 (compatible; msie 7.0; windows nt 6.0; acoo browser; slcc1; .net clr 2.0.50727; media center pc 5.0; .net clr 3.0.04506)"
,"mozilla/4.0 (compatible; msie 7.0; aol 9.5; aolbuild 4337.35; windows nt 5.1; .net clr 1.1.4322; .net clr 2.0.50727)"
,"mozilla/5.0 (compatible; msie 9.0; windows nt 6.1; win64; x64; trident/5.0; .net clr 3.5.30729; .net clr 3.0.30729; .net clr 2.0.50727; media center pc 6.0)"
,"mozilla/5.0 (compatible; msie 8.0; windows nt 6.0; trident/4.0; wow64; trident/4.0; slcc2; .net clr 2.0.50727; .net clr 3.5.30729; .net clr 3.0.30729; .net clr 1.0.3705; .net clr 1.1.4322)"
,"mozilla/4.0 (compatible; msie 7.0b; windows nt 5.2; .net clr 1.1.4322; .net clr 2.0.50727; infopath.2; .net clr 3.0.04506.30)",,
"mozilla/5.0 (windows; u; windows nt 5.1; en-us; rv:1.8.1.2pre) gecko/20070215 k-ninja/2.1.1"
,"mozilla/5.0 (windows; u; windows nt 5.1; zh-cn; rv:1.9) gecko/20080705 firefox/3.0 kapiko/3.0",,
,"opera/9.80 (macintosh; intel mac os x 10.6.8; u; fr) presto/2.9.168 version/11.52",]
# 建立請求頭資訊
defcreate_headers()
: headers =
dict()
headers[
"user-agent"
]= random.choice(user_agents)
headers[
"referer"]=
""return headers
defmain()
: page =
'm0_46668825/article/details/105559558'
# 呼叫請求頭
headers = create_headers(
) proxy = spider_proxyip(num=50)
# 請求 url 並返回結果
for i in
range
(1000):
proxies = random.choice(proxy)
print
(proxies)
sleep_time = random.randint(60,
120)
print
(sleep_time)
time.sleep(sleep_time)
response = requests.get(url=page, timeout=
10, proxies=proxies,headers=headers)
html = response.content
# 解析返回 html
soup = beautifulsoup(html,
"lxml"
) rank = soup.find(
'h2'
)print
(rank)
if __name__ ==
'__main__'
: main(
)
Python 刷高部落格閱讀量
事情起因 試一試不就知道了!正好這段時間看了 curl 和 python,很自然地想把她們結合起來。按照這個思路,我寫了下面這個指令碼 usr bin env python coding utf 8 import urllib python中的curl庫 import urllib2 python中...
python刷簡書文章訪問量
主要方法有3種 第二種 利用python 非同步高併發請求,主要模組asyncio和aiohttp,對增加10000 比較舒服 第四種 python3 selenium利用自動化框架進行請求,此乃下下策,之前用了多程序來操作10個driver,發現增加速度上慢的太多,而且非常耗電腦資源。這種方法不推...
為何某些文章的閱讀量這麼高
乙個好的文章標題,能吸引讀者的目光,能讓一篇普通的文章在無數普通的文章中脫穎而出。可以這麼說,一篇文章閱讀量的多少,很大一部分原因來自標題。精彩的標題 說明文或議 要盡量採用精簡 精彩的語言,概括文章的主要內容,作為標題。方法如下 巧用比喻,讓標題 活 起來 適當運用比喻,能生動形象地展現出文章的內...