import requests
# 爬登入後的頁面第一種方法:登入之後獲取cookie進行登入
# 獲取登入後的url
url =
''# 設定響應頭,獲取登入的cookie
headers =
reponse = requests.get(url=url,headers=headers)
print
(reponse.text)
#爬登入後的頁面第二種方法,填寫data賬號密碼自動登入
# session = requests.session()
# # url = '' #找到提交的位址,一般是form表單的提交位址
# # headers =
# data =
# session.post(url,data)
# response = requests.get('',headers=headers)
# print(response.text)
自學爬蟲 day2
我們匯入了 web 驅動模組 from selenium import webdriver 無形的瀏覽器phantomjs 將 python 物件轉化為 json是這樣的 json.dumps 將json資料轉化為python物件是這樣的 json.loads python從未縮排的非函式非類的 開...
爬蟲學習Day2
import requests if name main url city input enter a city data headers response requests.post url url,data data,headers headers page text response.text...
培訓 Day2 感想
昨天看了書 人家寫文件厲害,雖然語法基本上是忘光了,算是個半文盲了,竟然也能比較容易看懂 差點一下子自我感覺良好起來了 今天爽了,詞彙量急速膨脹 忽悠能力 因為看了下書,上課舒服多了 今天主要是對昨天提到的各個pa 22個 進行講解,大致描述了下各個pa裡的都有的gg和 gp,還有各個pa裡特定的s...