參考:
說明:利用urllib2中的post
問題:什麼是post鍵值?
就是要去網頁上面找page的頁面標記規律。
-----------------------------------------------paoqi
獲取了網頁的規律之後,要怎麼抓取內容呢?
參考:
>>> from lxml import etree
>>>
... wb_data = """
... ...
...
... """
>>> html = etree.html(wb_data)
>>> print(html)
>>> result = etree.tostring(html)
>>> print(result.decode("utf-8"))
>>> html_data = html.xpath('/html/body/div/ul/li/a')
>>> print(html)
>>> for i in html_data:
... print(i.text)
...first item
second item
third item
fourth item
fifth item
>>> url = ""
>>> html2 = etree.html(url)
>>> print(html2)
>>> result = etree.tostring(html2)
>>> print(result.decode("utf-8"))
>>> html_data = html.xpath('/html/body/div/ul/li/a')
>>> print(html)
>>> for i in html_data:
... print(i.text)
...first item
second item
third item
fourth item
fifth item
>>> html2_data = html2.xpath('/html/body/div/ul/li/a')
>>> for i in html2_data:
... print(i.text)
...>>>
Python 爬蟲爬取網頁
工具 python 2.7 import urllib import urllib2 defgetpage url 爬去網頁的方法 request urllib.request url 訪問網頁 reponse urllib2.urlopen request 返回網頁 return response...
python爬蟲爬取策略
在爬蟲系統中,待抓取url佇列是很重要的一部分。待抓取url佇列中的url以什麼樣的順序排列也是乙個很重要的問題,因為這涉及到先抓取那個頁面,後抓取哪個頁面。而決定這些url排列順序的方法,叫做抓取策略。下面重點介紹幾種常見的抓取策略 一 深度優先遍歷策略 深度優先遍歷策略是指網路爬蟲會從起始頁開始...
python爬蟲 seebug爬取
1.找相關的標籤一步一步往下查詢 2.有cookie才能查詢 3.用import re而不用from re import 是為了防止衝突 coding utf 8 from requests import import re from bs4 import beautifulsoup as bs h...