所謂網頁抓取,就是把url位址中指定的網路資源從網路流中讀取出來,儲存到本地。 在python中有很多庫可以用來抓取網頁,我們先學習urllib2
。
urllib2 官方文件:
urllib2 原始碼:
urllib2
在 python3.x 中被改為urllib.request
我們先來段**:
# urllib2_urlopen.py
# 匯入urllib2 庫
import urllib2
# 向指定的url傳送請求,並返回伺服器響應的類檔案物件
response = urllib2.urlopen("")
# 類檔案物件支援 檔案物件的操作方法,如read()方法讀取檔案全部內容,返回字串
html = response.read()
# 列印字串
print html
執行寫的python**,將列印結果
power@powermac ~$: python urllib2_urlopen.py
乙個基本的url請求對應的python**真的非常簡單。
在我們第乙個例子裡,urlopen()的引數就是乙個url位址;
但是如果需要執行更複雜的操作,比如增加http報頭,必須建立乙個 request 例項來作為urlopen()的引數;而需要訪問的url位址則作為 request 例項的引數。
我們編輯urllib2_request.py
# urllib2_request.py
import urllib2
# url 作為request()方法的引數,構造並返回乙個request物件
request = urllib2.request("")
# request物件作為urlopen()方法的引數,傳送給伺服器並接收響應
response = urllib2.urlopen(request)
html = response.read()
print html
執行結果是完全一樣的:新建request例項,除了必須要有 url 引數之外,還可以設定另外兩個引數:但是這樣直接用urllib2給乙個**傳送請求的話,確實略有些唐突了,就好比,人家每家都有門,你以乙個路人的身份直接闖進去顯然不是很禮貌。而且有一些站點不喜歡被程式(非人為訪問)訪問,有可能會拒絕你的訪問請求。data(預設空):是伴隨 url 提交的資料(比如要post的資料),同時 http 請求將從 "get"方式 改為 "post"方式。
headers(預設空):是乙個字典,包含了需要傳送的http報頭的鍵值對。
這兩個引數下面會說到。
但是如果我們用乙個合法的身份去請求別人**,顯然人家就是歡迎的,所以我們就應該給我們的這個**加上乙個身份,就是所謂的user-agent
頭。
#urllib2_useragent.py
import urllib2
url = ""
#ie 9.0 的 user-agent,包含在 ua_header裡
ua_header =
# url 連同 headers,一起構造request請求,這個請求將附帶 ie9.0 瀏覽器的user-agent
request = urllib2.request(url, headers = ua_header)
# 向伺服器傳送這個請求
response = urllib2.urlopen(request)
html = response.read()
print html
在 http request 中加入特定的 header,來構造乙個完整的http請求訊息。
可以通過呼叫request.add_header()
新增/修改乙個特定的header 也可以通過呼叫request.get_header()
來檢視已有的header。
# urllib2_headers.py
import urllib2
url = ""
#ie 9.0 的 user-agent
header =
request = urllib2.request(url, headers = header)
#也可以通過呼叫request.add_header() 新增/修改乙個特定的header
request.add_header("connection", "keep-alive")
# 也可以通過呼叫request.get_header()來檢視header資訊
# request.get_header(header_name="connection")
response = urllib2.urlopen(req)
print response.code #可以檢視響應狀態碼
html = response.read()
print html
# urllib2_add_headers.py
import urllib2
import random
url = ""
ua_list = [
"mozilla/5.0 (x11; cros i686 2268.111.0)... ",
"mozilla/5.0 (macintosh; u; ppc mac os x.... ",
"mozilla/5.0 (macintosh; intel mac os... "
]user_agent = random.choice(ua_list)
request = urllib2.request(url)
#也可以通過呼叫request.add_header() 新增/修改乙個特定的header
request.add_header("user-agent", user_agent)
# 第乙個字母大寫,後面的全部小寫
request.get_header("user-agent")
response = urllib2.urlopen(req)
html = response.read()
print html
把玩之python爬蟲urllib2
1,什麼是urllib2庫?urllib2是python的乙個獲取urls的元件,通過urlopen函式的形式來提供了乙個非常簡單的介面,根據不同協議獲取urls的能力,urllib2提供了乙個比較復 雜的介面來處理情況,例如 基礎驗證,cookies,和其他。我們分析 response urlli...
Python網路爬蟲 二 urllib2
1.網路爬蟲的架構 2.url管理器的簡單實現 1 存放待爬取url的 set 集合.2 存放未爬取url的 set 集合.3 url管理器應該具有的方法 新增新的url,判斷新增的url是否存在,判斷是否存在待爬取的url,獲取待爬取的url,移動爬取完成的url由未爬取 set 集合至 已爬取 ...
python爬蟲基礎 urllib2附帶資料解析
python中用於獲取 的模組 def getwebpage x 我們定義乙個獲取頁面的函式,x 是用於呈遞你在頁面中搜尋的內容的引數 你想要搜尋的引數 結合自己頁面情況適當修改 page urllib2.urlopen url pagecontent page.read return pageco...