這期內(nèi)容當(dāng)中小編將會給大家?guī)碛嘘P(guān)利用Python爬蟲怎么獲取重定向后的url,文章內(nèi)容豐富且以專業(yè)的角度為大家分析和敘述,閱讀完這篇文章希望大家可以有所收獲。
創(chuàng)新互聯(lián)網(wǎng)站建設(shè)公司一直秉承“誠信做人,踏實做事”的原則,不欺瞞客戶,是我們最起碼的底線! 以服務(wù)為基礎(chǔ),以質(zhì)量求生存,以技術(shù)求發(fā)展,成交一個客戶多一個朋友!專注中小微企業(yè)官網(wǎng)定制,成都做網(wǎng)站、成都網(wǎng)站建設(shè),塑造企業(yè)網(wǎng)絡(luò)形象打造互聯(lián)網(wǎng)企業(yè)效應(yīng)。方法(一)
# 獲得重定向url from urllib import request # /tupian/20230522/681501874175782812.html url = "https://www.baidu.com/link?url=IscBx0u8h9q4Uq3ihTs_PqnoNWe7slVWAd2dowQKrnqJedvthb3zrh9JqcMJu3ZqFrbW_DKVuTnTypDbMkZx_hwCQIGFPRVWGyxRXA-65jK&wd=&eqid=f7aeecba00092ed7000000065ec62596" print(request.urlopen(url).geturl())
方法(二)
# 請求頭,這里我設(shè)置了瀏覽器代理 headers = headers = {'User-Agent': 'xx'} # 這里chrome的user-agent獲取方式:在瀏覽器地址欄輸入 about://version 即可得到結(jié)果 url = "https://www.baidu.com/link?url=IscBx0u8h9q4Uq3ihTs_PqnoNWe7slVWAd2dowQKrnqJedvthb3zrh9JqcMJu3ZqFrbW_DKVuTnTypDbMkZx_hwCQIGFPRVWGyxRXA-65jK&wd=&eqid=f7aeecba00092ed7000000065ec62596" # 請求網(wǎng)頁 response = requests.get(url, headers=headers) # print(response.status_code) # 打印響應(yīng)的狀態(tài)碼 print(response.url) # 打印重定向后的網(wǎng)址 # 兩個結(jié)果都是:/tupian/20230522/681501874175782812.html
上述就是小編為大家分享的利用Python爬蟲怎么獲取重定向后的url了,如果剛好有類似的疑惑,不妨參照上述分析進(jìn)行理解。如果想知道更多相關(guān)知識,歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道。