python urllib2使用心得
1、http get請求
過程:獲取返回結果,關閉連線,列印結果
f = urllib2.urlopen(req, timeout=10)
the_page = f.read()
f.close()
print the_page
2、http get請求 + 包頭
paras = "token=1234567890;uuid=0987654321"
url =
req = urllib2.request(url, headers=send_headers) # 生成頁面請求的完整資料
f = urllib2.urlopen(req, timeout=10) # 傳送頁面請求
the_page = f.read()
f.close()
print the_page
3、http get請求 + 包頭,處理返回響應包頭
paras = "token=1234567890;uuid=0987654321"
url =
req = urllib2.request(url, headers=send_headers)
f = urllib2.urlopen(req, timeout=10)
response_head = f.info().getheader("content-type") # 獲取返回包頭中content-type內容
print response_head
f.close()
4、http post請求
postdata = urllib.urlencode()
f = urllib2.urlopen(url, postdata, timeout=10)
the_page = f.read()
f.close()
print the_page
5、http post請求 + 包頭
postdata = urllib.urlencode()
paras = "token=1234567890;uuid=0987654321"
url =
req = urllib2.request(url, headers=send_headers) # 包頭
f = urllib2.urlopen(req, postdata, timeout=10)
the_page = f.read()
f.close()
print the_page
6、http post請求 + 包頭,處理返回響應包頭
postdata = urllib.urlencode()
paras = "token=1234567890;uuid=0987654321"
url =
req = urllib2.request(url, headers=send_headers) # 包頭
f = urllib2.urlopen(req, postdata, timeout=10)
response_head = f.info().getheader("cookie") # 獲取返回包頭中cookie內容
print response_head
f.close()
7、http post 請求,json資料報url =
body = json.dumps()
req = urllib2.request(url, data=body, headers=send_headers)
f = urllib2.urlopen(req, timeout=2)
the_page = f.read()
f.close()
8、基於basic access authentication的http請求,如呼叫rabbitmq api介面
實現方式一:請求頭中新增authorization
basic access authentication介紹:
basicpwd = base64.b64encode("guest:guest") # 賬號密碼
req = urllib2.request(url, headers=self.head)
f = urllib2.urlopen(req, timeout=6)
the_page = f.read()
f.close()
實現方式二:http://guest:guest@ip:port/api/channels
http包頭、包體的學習參考:/p/5110304.html
Python urllib2使用總結
import urllib2 response urllib2.urlopen html response.read 這個過程就是基於簡單的請求 響應的模型 response urllib2.urlopen 實際上可以看作兩個步驟 1 我們向指定網域名稱傳送請求 request urllib2.re...
python urllib2查詢資料
最近為了更好的查詢老王python的外鏈,所以準備寫乙個python urllib2 查詢指令碼來查詢,一般查詢外鏈比較準確的工具還是yahoo的外鏈工具,但是有點不方便的就是,yahoo查出的外鏈要一頁一頁的翻,好累而且不好方便統計,我是想把 的外鏈全部讀取到檔案裡,這樣比較好在本地來進行統計。廢...
Python urllib2產生殭屍程序
最近發現,python 會產生很多殭屍程序,之前未發現,自從使用urllib2模組發http請求之後,便產生了大量殭屍程序,確定是由於urllib2產生,原始 如下 req urllib2.request url urllib2.urlopen req 最開始,想當然的任務,http請求不是長連線,...