xpath
特點:樹狀結構、逐層展開、逐層定位、尋找獨立節點。 類似於使用jquery進行元素搜尋
在進行網頁抓取的時候,分析定位html節點是獲取抓取資訊的關鍵,目前我用的是lxml模組(用來分析xml文件結構的,當然也能分析html結構), 利用其lxml.html的xpath對html進行分析,獲取抓取資訊。
首先,我們需要安裝乙個支援xpath的python庫。目前在libxml2的**上被推薦的python binding是lxml,也有beautifulsoup,不嫌麻煩的話還可以自己用正規表示式去構建,本文以lxml為例講解。
假設有如下的html文件:
1 2 318直接使用lxml處理:19
1 import codecsetree提供了html這個解析函式,現在我們可以直接對html使用xpath了,是不是有點小激動,現在就嘗試下吧。2 from lxml import etree
3 f=codecs.open("ceshi.html","r","utf-8")
4 content=f.read()
5 f.close()
6 tree=etree.html(content)
在使用xpath之前我們先來看看作為對照的jquery和re。
在jquery裡要處理這種東西就很簡單,特別是假如那個ul節點有id的話(比如是):
$("#china").each(function());具體到此處是:
$("#leftmenu").children("h3:contains('text')").next("ul").each(function());找到id為leftmenu的節點,在其下找到乙個內容包含為」text」的h3節點,再取其接下來的乙個ul節點。
在python裡要是用re來處理就略麻煩一些:
block_pattern=re.compile(u"(.*?)", re.i | re.s)那麼用xpath要怎麼做呢?其實跟jquery是差不多的:m=block_pattern.findall(content)
item_pattern=re.compile(u"(.*?)", re.i | re.s)
items=item_pattern.findall(m[0])
for i in items:
print i
nodes=tree.xpath("/descendant::ul[@id='china']")當然,現在沒有id的話也就只能用類似於jquery的方法了。完整的xpath應該是這樣寫的(注意,原檔案中的tag有大小寫的情況,但是在xpath裡只能用小寫):
nodes=tree.xpath(u"/html/body/form/div[@id='leftmenu']/h3[text()='text']/following-sibling::ul[1]")更簡單的方法就是像jquery那樣直接根據id定位:
nodes=tree.xpath(u"//div[@id='leftmenu']/h3[text()='text']/following-sibling::ul[1]")這兩種方法返回的結果中,nodes[0]就是那個「text」的h3節點後面緊跟的第乙個ul節點,這樣就可以列出後面所有的ul節點內容了。
如果ul節點下面還有其他的節點,我們要找到更深節點的內容,如下的迴圈就是把這些節點的文字內容列出:
nodes=nodes[0].xpath("li/a")對比三種方法應該可以看出xpath和jquery對於頁面的解析都是基於xml的語義進行,而re則純粹是基於plain text。re對付簡單的頁面是沒有問題,如果頁面結構複雜度較高的時候(比如一堆的div來回巢狀之類),設計乙個恰當的re pattern可能會遠比寫乙個xpath要複雜。特別是目前主流的基於css的頁面設計方式,其中大部分關鍵節點都會有id――對於使用jquery的頁面來說則更是如此,這時xpath相比re就有了決定性的優勢。for n in nodes:
print n.text
xpath基本上是用一種類似目錄樹的方法來描述在xml文件中的路徑。比如用「/」來作為上下層級間的分隔。第乙個「/」表示文件的根節點(注意,不是指文件最外層的tag節點,而是指文件本身)。比如對於乙個html檔案來說,最外層的節點應該是」/html」。
同樣的,「..」和「.」分別被用來表示父節點和本節點。
xpath返回的不一定就是唯一的節點,而是符合條件的所有節點。比如在html文件裡使用「/html/head/scrpt」就會把head裡的所有script節點都取出來。
為了縮小定位範圍,往往還需要增加過濾條件。過濾的方法就是用「[」「]」把過濾條件加上。比如在html文件裡使用「/html/body/div[@id='main']」,即可取出body裡id為main的div節點。
其中@id表示屬性id,類似的還可以使用如@name, @value, @href, @src, @class….
而 函式text()的意思則是取得節點包含的文字。比如:helloworld
< /div>中,用」div[text()='hello']「即可取得這個div,而world則是p的text()。
函式position()的意思是取得節點的位置。比如「li[position()=2]」表示取得第二個li節點,它也可以被省略為「li[2]」。
不過要注意的是數字定位和過濾 條件的順序。比如「ul/li[5][@name='hello']」表示取ul下第五項li,並且其name必須是hello,否則返回空。而如果用 「ul/li[@name='hello'][5]」的意思就不同,它表示尋找ul下第五個name為」hello「的li節點。
此外,「*」可以代替所有的節點名,比如用」/html/body/*/span」可以取出body下第二級的所有span,而不管它上一級是div還是p或是其它什麼東東。
而 「descendant::」字首可以指代任意多層的中間節點,它也可以被省略成乙個「/」。比如在整個html文件中查詢id為「leftmenu」的 div,可以用「/descendant::div[@id='leftmenu']」,也可以簡單地使用「 //div[@id='leftmenu']」。
至於「following-sibling::」字首就如其名所說,表示同一層的下乙個節點。」following-sibling::*」就是任意下乙個節點,而「following-sibling::ul」就是下乙個ul節點。
特殊應用:
// 定位根節點
/ 往下層尋找
提取文字內容: /text()
提取屬性內容: /@屬性名
提取html中css屬性的內容,比如 這不是要提取的內容
則可以用下面的方式:
titles = selector.xpath('/a/@title')
title = title[0]
print(title[0])
以相同的字元開頭的情況
starts-with(@屬性名稱,屬性字元相同的部分)
標籤套標籤,提取全部內容
Python爬蟲隨筆1
問答 做到現在,沒有資料啊,所以需要一些資料 爬蟲很好玩,早就在知乎看見別人爬各種羞羞 的 不過一直沒時間,最近感覺自己秋招也沒啥希望,還是做點自己想做的事情吧 我的python基礎幾乎為0,雖然看過語法,然而都忘了,這玩意不寫,兩天就忘了 所以給點動力,也可以好好工作一把 一直聽說爬蟲,其實並不是...
Python 網路爬蟲隨筆
網路爬蟲之前感覺很難,但是其實看過網上一些詳細的教程之後覺得還是可以掌握一二的 最主要的原因我認為可能是因為python的相關工具包做的確實很完善,相當好用。import requests from bs4 import beautifulsoup接下來就可以使用相關函式了 url wbdata r...
新聞隨筆 華三
據9月29日早間外電報道,網路裝置製造商3com表示,公司簽訂的收購協議附帶6,600萬美元的解約費。據3com遞交給美國 交易委員會的檔案,如果交易在某些情況下未能完成,該公司需要向bain capital和華為支付不超過2,000萬美元的費用。檔案顯示,若交易因某些情況而終止,收購方也需要向3c...