**ip通過 獲取,我使用的的是https 協議的**。根據自己需求選擇http或者https 協議的頁面。廢話不多說,直接上**。
# -*- coding:utf-8 -*-
#from urllib import request
import requests
import random
import time
import re
import threading
user_agent_list=[
'mozilla/4.0 (compatible; msie 8.0; windows nt 6.0; trident/4.0)',
'mozilla/5.0 (windows nt 6.1; rv:2.0.1) gecko/20100101 firefox/4.0.1',
'opera/9.80 (windows nt 6.1; u; en) presto/2.8.131 version/11.11',
'mozilla/4.0 (compatible; msie 7.0; windows nt 5.1; trident/4.0; se 2.x metasr 1.0; se 2.x metasr 1.0; .net clr 2.0.50727; se 2.x metasr 1.0)',
'mozilla/5.0 (compatible; msie 9.0; windows nt 6.1; trident/5.0',
'mozilla/5.0 (windows nt 6.1; rv:2.0.1) gecko/20100101 firefox/4.0.1',
]count=0
def get_proxy_ip():
headers =
req=requests.get(r'',headers=headers)
html=req.text
#print (html)
proxy_list=
ip_list=re.findall(r'\d+\.\d+\.\d+\.\d+',html)
port_lits=re.findall(r'\d+',html)
for i in range(len(ip_list)):
ip=ip_list[i]
port=re.sub(r'|','',port_lits[i])
proxy='%s:%s' %(ip,port)
return proxy_list
def proxy_read(proxy_list,user_agent_list,i):
proxy_ip=proxy_list[i]
print ('當前**ip:%s'%proxy_ip)
user_agent = random.choice(user_agent_list)
print('當前**user_agent:%s'%user_agent)
sleep_time = random.randint(5,15)
time.sleep(sleep_time)
print('開始獲取')
headers =
proxies=
###########隨機取列表中鏈結#############################################
url=['',
'',]
url=random.choice(url) #隨機讀取鏈結
try:
req = requests.get(url, headers=headers,proxies=proxies, timeout=5)
html=req.text
print (html)
except exception as e:
print('******開啟失敗!******')
else:
global count
count += 1
print('ok!總計成功%s次!' % count)
if __name__ == '__main__':
proxy_list = get_proxy_ip()
for i in range(100):
proxy_read(proxy_list, user_agent_list, i)
Python刷csdn訪問量
正所周知,python是一門很強大的語言,尤其在抓取資料方面。既然能抓取資料,這就說明可以向 傳送請求。所以基於python語言,借鑑網上的一些資料,大體實現了小規模的訪問量的提公升。廢話少說,我直接上 import urllib.request,re from bs4 import beautif...
python 刷csdn部落格訪問量
由於同個ip訪問短時間不能重複訪問量不會增加,於是選取多篇文章訪問,一邊下來,差不多第一篇文章便可以訪問了。以下 只設定將文章列表訪問以次。防止封號,僅供學習。coding utf 8 import webbrowser as web import time import os urllist fo...
python刷簡書文章訪問量
主要方法有3種 第二種 利用python 非同步高併發請求,主要模組asyncio和aiohttp,對增加10000 比較舒服 第四種 python3 selenium利用自動化框架進行請求,此乃下下策,之前用了多程序來操作10個driver,發現增加速度上慢的太多,而且非常耗電腦資源。這種方法不推...