正所周知,python是一門很強大的語言,尤其在抓取資料方面。既然能抓取資料,這就說明可以向**傳送請求。所以基於python語言,借鑑網上的一些資料,大體實現了小規模的訪問量的提公升。廢話少說,我直接上**:
import urllib.request,re
from bs4 import beautifulsoup
#import href
def gethtml(url,headers):
req = urllib.request.request(url,headers=headers)
page = urllib.request.urlopen(req)
html = page.read()
return html
def parse(data):
content = beautifulsoup(data,'lxml')
return content
def getreadnums(data,st):
reg = re.compile(st)
return re.findall(reg,data)
url = '' #如果想增加所有所有的部落格的閱讀量,請將條語句注釋,並將下文的url和for迴圈注釋去掉
headers =
j = 0
a = href.main('__main__')
#for j in range(len(a)):
#url = '' + a[j]
print(url)
i = 0
while i<50:
html = gethtml(url,headers)
content = parse(html)
result = content.find_all('span',class_='link_view')
print(result[0].get_text())
i = i +1
以上的**是要自己改動刷閱讀量的文章,比較繁瑣,所以我就想到了既然是通過url來發出請求,那麼把所有博文的url儲存在乙個列表,迴圈求出url,不就可以實現所以得博文一次性刷求某一數量的閱讀量了嗎。
**如下:
import requests
from bs4 import beautifulsoup
def gethtml():
r = requests.get('/my201558503128?viewmode=contents')
return r.text
def parse(data):
content=beautifulsoup(data,'lxml')
return content
#def count():
# html = gethtml()
# cut_span = parse(html)
# a=0
# for result in cut_span.find_all('a', title="閱讀次數"):
# a=a+1
# return a
def main(__name__):
if __name__ == '__main__':
m =
html=gethtml()
cut_span=parse(html)
for result in cut_span.find_all('a',title="閱讀次數"):
# print(result.get('href'))
return m
我使用的是兩個檔案一起使用的方法,所以在第乙個**處要加上import 第二個檔名,第二個**就是為了實現迴圈刷閱讀量的,算是輔助檔案吧。
python 刷csdn部落格訪問量
由於同個ip訪問短時間不能重複訪問量不會增加,於是選取多篇文章訪問,一邊下來,差不多第一篇文章便可以訪問了。以下 只設定將文章列表訪問以次。防止封號,僅供學習。coding utf 8 import webbrowser as web import time import os urllist fo...
Python 刷訪問量
ip通過 獲取,我使用的的是https 協議的 根據自己需求選擇http或者https 協議的頁面。廢話不多說,直接上 coding utf 8 from urllib import request import requests import random import time import r...
python 增加csdn訪問量公升級
主程式 tools是我的自定義工具類 import tools import socket 模擬訪問部落格增加訪問量 socket.setdefaulttimeout 1.0 visitnum 2 if len sys.argv 1 visitnum sys.argv 1 visitnum int ...