小編給大家分享一下python爬蟲中偽裝瀏覽器的方法,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
成都創(chuàng)新互聯(lián)公司-云計算及IDC服務(wù)提供商,涵蓋公有云、IDC機房租用、棕樹數(shù)據(jù)中心、等保安全、私有云建設(shè)等企業(yè)級互聯(lián)網(wǎng)基礎(chǔ)服務(wù),歡迎咨詢:13518219792
實現(xiàn)偽裝瀏覽器須知:
我們?nèi)绻肴カ@取某些內(nèi)容,得先讓自己和他們處于同類,這樣才不會被攻擊,才可以跟對手網(wǎng)站和平相處,接收到他們的信息。引入ProxyHandler組件,訪問需要通過build_opener調(diào)用handler來實現(xiàn)。
實現(xiàn)代碼如下:
from urllib.request import Request, build_opener from fake_useragent import UserAgent from urllib.request import ProxyHandler url = "http://httpbin.org/get" headers={ "User-Agent": UserAgent().chrome } request = Request(url, headers=headers) handler = ProxyHandler({"http" : "112.85.129.8:9999"}) opener = build_opener(handler) response = opener.open(request) print(response.read().decode())
測試結(jié)果
先運行程序看看目前沒有用代理的時候IP的信息
再看看利用了proxy之后產(chǎn)生的結(jié)果
以上是“python爬蟲中偽裝瀏覽器的方法”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對大家有所幫助,如果還想學(xué)習(xí)更多知識,歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道!