1、輸入登陸**:url =
輸入註冊過的賬號密碼,登陸成功之後,檢視post請求的session,檢視需要提交的formdata表單,然後構造字典資料。
2、觀察發現除了authenticity_token之外,別的可以直接構造字典,authenticity_token這個比較複雜,檢視源**發現在乙個hidden的元素裡,用xpath提取即可。所以初始字典構造為除authenticity_token之外的其餘的幾個鍵值對。
3、獲取初始的網頁源**,來獲取authenticity_token的值。
4、提取之後,要把token資料新增到formdata裡。
formdata['authenticity_token'] = token5、使用requests的post方法提交即可,注意post的**是session的request url
6、完整**如下:
importrequestsimporturllib.request
fromlxmlimportetree
loginurl = ''
' (khtml, like gecko) chrome/63.0.3239.84 safari/537.36'}
page = urllib.request.urlopen(loginurl).read().decode('utf-8')
s = etree.html(page)
token = s.xpath('//*[@id="login"]/form/input[2]/@value')[0]
# print(token)
formdata =
formdata['authenticity_token'] = token
session_url = ''
r = requests.post(session_url,
data=formdata,
headers=headers)
html = r.text
ifr.url == '':
print('login successfully!!!')
else:
print("failed!")
使用requests模擬登陸github
學了了下python requests 以及文字處理和正則工具re,順便應用一下。使用requests模擬登陸github 準備 tampler data 使用教程 利用它獲取到登陸所需要的header,post引數等資訊。requests 快速入門教程 模擬 import requests imp...
模擬登陸 github模擬登陸,列印資訊流
目的 動態獲取cookie 1 開啟開發者工具,檢視各自請求 2 可以看到name為session的請求 方式post,傳入的data 3 檢視name為login的請求,原始碼中獲得token,作為上乙個請求中的data的一部分 檢視資訊流請求的url,自行構建對應的url,解析 1 這裡有個技巧...
爬蟲實戰之模擬登陸Github
這裡不討論用 github api 的情況,僅僅以 github 來說明模擬登陸先嘗試用真實瀏覽器登陸,登陸成功後在開發者工具的 network 選項卡中捕獲 session 檔案。可以看到,登陸所需要的資料不僅僅是 email 或使用者名稱 和密碼,還需要其它的 3 個字段,而這 3 個字段普通使...