這期內(nèi)容當(dāng)中小編將會給大家?guī)碛嘘P(guān)利用Python爬蟲怎么獲取重定向后的url,文章內(nèi)容豐富且以專業(yè)的角度為大家分析和敘述,閱讀完這篇文章希望大家可以有所收獲。
方法(一)
# 獲得重定向url from urllib import request # /tupian/20230522/681501874175782812.html url = "https://www.baidu.com/link?url=IscBx0u8h9q4Uq3ihTs_PqnoNWe7slVWAd2dowQKrnqJedvthb3zrh9JqcMJu3ZqFrbW_DKVuTnTypDbMkZx_hwCQIGFPRVWGyxRXA-65jK&wd=&eqid=f7aeecba00092ed7000000065ec62596" print(request.urlopen(url).geturl())
方法(二)
# 請求頭,這里我設(shè)置了瀏覽器代理 headers = headers = {'User-Agent': 'xx'} # 這里chrome的user-agent獲取方式:在瀏覽器地址欄輸入 about://version 即可得到結(jié)果 url = "https://www.baidu.com/link?url=IscBx0u8h9q4Uq3ihTs_PqnoNWe7slVWAd2dowQKrnqJedvthb3zrh9JqcMJu3ZqFrbW_DKVuTnTypDbMkZx_hwCQIGFPRVWGyxRXA-65jK&wd=&eqid=f7aeecba00092ed7000000065ec62596" # 請求網(wǎng)頁 response = requests.get(url, headers=headers) # print(response.status_code) # 打印響應(yīng)的狀態(tài)碼 print(response.url) # 打印重定向后的網(wǎng)址 # 兩個結(jié)果都是:/tupian/20230522/681501874175782812.html
上述就是小編為大家分享的利用Python爬蟲怎么獲取重定向后的url了,如果剛好有類似的疑惑,不妨參照上述分析進(jìn)行理解。如果想知道更多相關(guān)知識,歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道。