具體**如下:
import urllib.request
import urllib.parse # 可以實現url的構造,但是去掉也不影響結果
import json # 把獲取到的字串轉換成字典的時候需要用到
content =
input
('輸入要翻譯的內容: '
)url =
''# 取network裡面找到這個url,把裡面的_o去掉,這個是有道的加密,詳情可以在csdn裡搜一下
data =
# 在network裡找到data,複製過來
data[
'i']
= content
data[
'from']=
'auto'
data[
'to']=
'auto'
data[
'smartresult']=
'dict'
data[
'client']=
'fanyideskweb'
data[
'salt']=
'15938760135952'
data[
'sign']=
'af3f1c36a96655e1a13616ec4e523d9c'
data[
'ts']=
'1593876013595'
data[
'bv']=
'ce1fe729a12a6b5169046dd3aac11e4c'
data[
'doctype']=
'json'
data[
'version']=
'2.1'
data[
'keyfrom']=
'fanyi.web'
data[
'action']=
'fy_by_clickbuttion'
data = urllib.parse.urlencode(data)
.encode(
'utf-8'
)# urlencode()將字串以url編碼,用於編碼處理,返回的是字串。
# 得到的字串再編譯成utf-8的形式
response = urllib.request.urlopen(url, data)
html = response.read(
).decode(
'utf-8'
)# 得到的html是字串
target = json.loads(html)
['translateresult'][
0][0
]['tgt'
]# 把得到的字串轉化成字典 再從字典裡獲取翻譯結果
print
('翻譯結果: '
, target)
爬蟲爬取有道翻譯
這是很久之前寫的1個爬蟲了,也是我寫的第乙個爬蟲,因為恰好網課開始了,很多任務作要在電腦上學習了,總在手機上查英語單詞比較費時費事,於是便想著寫乙個爬蟲直接在電腦上查詞會方便很多,所以寫了乙個爬取有道翻譯的爬蟲。如下 import urllib.request import urllib.parse...
python爬蟲 爬取有道翻譯詳解
這裡我們使用python的urllib來實現 首先,我們需要找到我們進行翻譯時上傳給伺服器的資料。我們可以通過查詢審查元素中的network這一欄目下,選擇執行post方法的選項。在general下的request url就是我們訪問的鏈結 而form data下的就是我們所提交的資料,其中的i 就...
python 爬取有道翻譯(更錯)
import requests def fanyi keyword 定義請求的url url 定義請求的引數 data 發起請求post res requests.post url,data data 獲取請求結果 code res.status code print code 判斷是否請求成功 i...