在學習python爬取網頁的時候,我們經常會遇到編碼方式的困擾,為了解決這個編碼方式的問題,首先是要獲取網頁的編碼方式,下面就獲取網頁的編碼方式重點說一下三種方法。
一,使用urllib模組的getparam方法
>import urllib
>fopen1 = urllib.urlopen('').info()
>print fopen1.getparam('charset')# baidu
二,使用chardet模組
>import chardet
>import urllib
>#先獲取網頁內容
>data1 = urllib.urlopen('').read()
>#用chardet進行內容分析
>chardit1 = chardet.detect(data1)
>print chardit1['encoding'] # baidu
三, 利用beautifulsoup模組方法
>from bs4 import beautifulsoup
>import urllib2
>content=urllib2.urlopen(url)#這裡url是你需要獲取的網頁
>soup=beautifulsoup(content)
>print soup.original_encoding #這裡的輸出就是網頁的編碼方式
這裡爬取網頁內容出現的亂碼問題,可以參考部落格文章。
這裡獲取網頁html內容,可以參考部落格文章。
python判斷網頁編碼方式
在解析網頁的過程中往往會遇到網頁亂碼的情況,自己去看網頁源 往往不太準確,這時候就需要用 去判斷網頁源 的編碼方式,一共介紹三種方式 推薦第二種 url 一,使用urllib模組的getparam方法 import urllib 獲取網頁資訊 data urllib.urlopen url info...
python 判斷網頁編碼
這段時間在用python處理網頁抓取這塊,網際網路很多網頁的編碼格式都不一樣,大體上是gbk,gb2312,utf 8,等待。我們在獲取 網頁的的資料後,先要對網頁的編碼進行判斷,才能把抓取的內容的編碼統一轉換為我們能夠處理的編碼。比如beautiful soup內部的編碼就是unicode的編碼。...
判斷網頁編碼的方法python版
在web開發的時候我們經常會遇到網頁抓取和分析,各種語言都可以完成這個功能。我喜歡用python實現,因為python提供了很多成熟的模組,可以很方便的實現網頁抓取。但是在抓取過程中會遇到編碼的問題,那今天我們來看一下如何判程式設計客棧斷網頁的編碼 網上很多網頁的編碼格式都不一樣,大體上程式設計客棧...