小編給大家分享一下scrapy在python分布式爬蟲的使用范圍,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
長豐網(wǎng)站建設公司成都創(chuàng)新互聯(lián)公司,長豐網(wǎng)站設計制作,有大型網(wǎng)站制作公司豐富經(jīng)驗。已為長豐數(shù)千家提供企業(yè)網(wǎng)站建設服務。企業(yè)網(wǎng)站搭建\外貿網(wǎng)站建設要多少錢,請找那個售后服務好的長豐做網(wǎng)站的公司定做!1.scrapy框架是否可以自己實現(xiàn)分布式?
不可以。原因有二。
其一:因為多臺機器上部署的scrapy會各自擁有各自的調度器,這樣就使得多臺機器無法分配start_urls列表中的url。(多臺機器無法共享同一個調度器)
其二:多臺機器爬取到的數(shù)據(jù)無法通過同一個管道對數(shù)據(jù)進行統(tǒng)一的數(shù)據(jù)持久出存儲。(多臺機器無法共享同一個管道)
2.基于scrapy-redis組件的分布式爬蟲
scrapy-redis組件中為我們封裝好了可以被多臺機器共享的調度器和管道,我們可以直接使用并實現(xiàn)分布式數(shù)據(jù)爬取。
實現(xiàn)方式:
基于該組件的RedisSpider類
基于該組件的RedisCrawlSpider類
3.分布式實現(xiàn)流程:上述兩種不同方式的分布式實現(xiàn)流程是統(tǒng)一的
3.1 下載scrapy-redis組件:
pip install scrapy-redis
3.2 redis配置文件的配置:
注釋該行:bind 127.0.0.1,表示可以讓其他ip訪問redis
將yes該為no:protected-mode no,表示可以讓其他ip操作redis
3.3 修改爬蟲文件中的相關代碼:
將爬蟲類的父類修改成基于RedisSpider或者RedisCrawlSpider。注意:如果原始爬蟲文件是基于 Spider的,則應該將父類修改成RedisSpider,如果原始爬蟲文件是基于CrawlSpider的,則應該將其父類修改成RedisCrawlSpider。
注釋或者刪除start_urls列表,切加入redis_key屬性,屬性值為scrpy-redis組件中調度器隊列的名稱
3.4 在配置文件中進行相關配置,開啟使用scrapy-redis組件中封裝好的管道
看完本篇文章我們知道,因為兩點的限制,scrapy框架是不能在python分布式爬蟲獨立運用的,但是我們可以配合其他的一些函數(shù)來運行,這點小伙伴們可要記住啦~
以上是“scrapy在python分布式爬蟲的使用范圍”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注創(chuàng)新互聯(lián)行業(yè)資訊頻道!