真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

使用Scrapy框架時怎么應(yīng)對普通的反爬機制

這篇文章主要講解了“使用Scrapy框架時怎么應(yīng)對普通的反爬機制”,文中的講解內(nèi)容簡單清晰,易于學(xué)習(xí)與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學(xué)習(xí)“使用Scrapy框架時怎么應(yīng)對普通的反爬機制”吧!

目前成都創(chuàng)新互聯(lián)公司已為1000+的企業(yè)提供了網(wǎng)站建設(shè)、域名、雅安服務(wù)器托管、網(wǎng)站托管、服務(wù)器托管、企業(yè)網(wǎng)站設(shè)計、潼南網(wǎng)站維護等服務(wù),公司將堅持客戶導(dǎo)向、應(yīng)用為本的策略,正道將秉承"和諧、參與、激情"的文化,與客戶和合作伙伴齊心協(xié)力一起成長,共同發(fā)展。

header檢驗

最簡單的反爬機制,就是檢查HTTP請求的Headers信息,包括User-Agent, Referer、Cookies等。

User-Agent

User-Agent是檢查用戶所用客戶端的種類和版本,在Scrapy中,通常是在下載器中間件中進行處理。比如在setting.py中建立一個包含很多瀏覽器User-Agent的列表,然后新建一個random_user_agent文件:

class RandomUserAgentMiddleware(object):     @classmethod     defprocess_request(cls, request, spider):         ua = random.choice(spider.settings['USER_AGENT_LIST'])         if ua:             request.headers.setdefault('User-Agent', ua)

這樣就可以在每次請求中,隨機選取一個真實瀏覽器的User-Agent。

Referer

Referer是檢查此請求由哪里來,通??梢宰鰣D片的盜鏈判斷。在Scrapy中,如果某個頁面url是通過之前爬取的頁面提取到,Scrapy會自動把之前爬取的頁面url作為Referfer。也可以通過上面的方式自己定義Referfer字段。

Cookies

網(wǎng)站可能會檢測Cookie中session_id的使用次數(shù),如果超過限制,就觸發(fā)反爬策略。所以可以在Scrapy中設(shè)置 COOKIES_ENABLED =  False 讓請求不帶Cookies。

也有網(wǎng)站強制開啟Cookis,這時就要麻煩一點了??梢粤韺懸粋€簡單的爬蟲,定時向目標(biāo)網(wǎng)站發(fā)送不帶Cookies的請求,提取響應(yīng)中Set-cookie字段信息并保存。爬取網(wǎng)頁時,把存儲起來的Cookies帶入Headers中。

X-Forwarded-For

在請求頭中添加X-Forwarded-For字段,將自己申明為一個透明的代理

動態(tài)加載

現(xiàn)在越來越多的網(wǎng)站使用ajax動態(tài)加載內(nèi)容,這時候可以先截取ajax請求分析一下,有可能根據(jù)ajax請求構(gòu)造出相應(yīng)的API請求的URL就可以直接獲取想要的內(nèi)容,通常是json格式,反而還不用去解析HTML。

然而,很多時候ajax請求都會經(jīng)過后端鑒權(quán),不能直接構(gòu)造URL獲取。這時就可以通過PhantomJS+Selenium模擬瀏覽器行為,抓取經(jīng)過js渲染后的頁面。

需要注意的是,使用Selenium后,請求不再由Scrapy的Downloader執(zhí)行,所以之前添加的請求頭等信息都會失效,需要在Selenium中重新添加

headers = {...} for key, valuein headers.iteritems():     webdriver.DesiredCapabilities.PHANTOMJS['phantomjs.page.customHeaders.{}'.format(key)] = value

另外,調(diào)用PhantomJs需要指定PhantomJs的可執(zhí)行文件路徑,通常是將該路徑添加到系統(tǒng)的path路徑,讓程序執(zhí)行時自動去path中尋找。我們的爬蟲經(jīng)常會放到crontab中定時執(zhí)行,而crontab中的環(huán)境變量和系統(tǒng)的環(huán)境變量不同,所以就加載不到PhamtonJs需要的路徑,所以***是在申明時指定路徑:

driver = webdriver.PhantomJS(executable_path='/usr/local/bin/phantomjs')

感謝各位的閱讀,以上就是“使用Scrapy框架時怎么應(yīng)對普通的反爬機制”的內(nèi)容了,經(jīng)過本文的學(xué)習(xí)后,相信大家對使用Scrapy框架時怎么應(yīng)對普通的反爬機制這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是創(chuàng)新互聯(lián),小編將為大家推送更多相關(guān)知識點的文章,歡迎關(guān)注!


本文名稱:使用Scrapy框架時怎么應(yīng)對普通的反爬機制
本文地址:
http://weahome.cn/article/ppjpjg.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部