創(chuàng)新互聯(lián)www.cdcxhl.cn八線動(dòng)態(tài)BGP香港云服務(wù)器提供商,新人活動(dòng)買多久送多久,劃算不套路!
創(chuàng)新互聯(lián)建站服務(wù)項(xiàng)目包括愛(ài)輝網(wǎng)站建設(shè)、愛(ài)輝網(wǎng)站制作、愛(ài)輝網(wǎng)頁(yè)制作以及愛(ài)輝網(wǎng)絡(luò)營(yíng)銷策劃等。多年來(lái),我們專注于互聯(lián)網(wǎng)行業(yè),利用自身積累的技術(shù)優(yōu)勢(shì)、行業(yè)經(jīng)驗(yàn)、深度合作伙伴關(guān)系等,向廣大中小型企業(yè)、政府機(jī)構(gòu)等提供互聯(lián)網(wǎng)行業(yè)的解決方案,愛(ài)輝網(wǎng)站推廣取得了明顯的社會(huì)效益與經(jīng)濟(jì)效益。目前,我們服務(wù)的客戶以成都為中心已經(jīng)輻射到愛(ài)輝省份的部分城市,未來(lái)相信會(huì)繼續(xù)擴(kuò)大服務(wù)區(qū)域并繼續(xù)獲得客戶的支持與信任!這篇文章主要介紹關(guān)于Scrapy框架下Spider類的簡(jiǎn)介,文中介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們一定要看完!
Spider類
Spider類定義了如何爬取某個(gè)(或某些)網(wǎng)站。包括了爬取的動(dòng)作(例如:是否跟進(jìn)鏈接)以及如何從網(wǎng)頁(yè)的內(nèi)容中提取結(jié)構(gòu)化數(shù)據(jù)(爬取item)。
換句話說(shuō),Spider就是您定義爬取的動(dòng)作及分析某個(gè)網(wǎng)頁(yè)(或者是有些網(wǎng)頁(yè))的地方。
class scrapy.Spider是最基本的類,所有編寫的爬蟲必須繼承這個(gè)類。
主要用到的函數(shù)及調(diào)用順序?yàn)椋?/p>
__init__() : 初始化爬蟲名字和start_urls列表
start_requests() 調(diào)用make_requests_from url():生成Requests對(duì)象交給Scrapy下載并返回response
parse() : 解析response,并返回Item或Requests(需指定回調(diào)函數(shù))。Item傳給Item pipline持久化 , 而Requests交由Scrapy下載,并由指定的回調(diào)函數(shù)處理(默認(rèn)parse()),一直進(jìn)行循環(huán),直到處理完所有的數(shù)據(jù)為止。
源碼參考
#所有爬蟲的基類,用戶定義的爬蟲必須從這個(gè)類繼承 class Spider(object_ref): #定義spider名字的字符串(string)。spider的名字定義了Scrapy如何定位(并初始化)spider,所以其必須是唯一的。 #name是spider最重要的屬性,而且是必須的。 #一般做法是以該網(wǎng)站(domain)(加或不加 后綴 )來(lái)命名spider。 例如,如果spider爬取 mywebsite.com ,該spider 通常會(huì)被命名為 mywebsite name = None #初始化,提取爬蟲名字,start_ruls def __init__(self, name=None, **kwargs): if name is not None: self.name = name # 如果爬蟲沒(méi)有名字,中斷后續(xù)操作則報(bào)錯(cuò) elif not getattr(self, 'name', None): raise ValueError("%s must have a name" % type(self).__name__) # python 對(duì)象或類型通過(guò)內(nèi)置成員__dict__來(lái)存儲(chǔ)成員信息 self.__dict__.update(kwargs) #URL列表。當(dāng)沒(méi)有指定的URL時(shí),spider將從該列表中開始進(jìn)行爬取。 因此,第一個(gè)被獲取到的頁(yè)面的URL 將是該列表之一。 后續(xù)的URL將會(huì)從獲取到的數(shù)據(jù)中提取。 if not hasattr(self, 'start_urls'): self.start_urls = [] # 打印Scrapy執(zhí)行后的log信息 def log(self, message, level=log.DEBUG, **kw): log.msg(message, spider=self, level=level, **kw) # 判斷對(duì)象object的屬性是否存在,不存在做斷言處理 def set_crawler(self, crawler): assert not hasattr(self, '_crawler'), "Spider already bounded to %s" % crawler self._crawler = crawler @property def crawler(self): assert hasattr(self, '_crawler'), "Spider not bounded to any crawler" return self._crawler @property def settings(self): return self.crawler.settings #該方法將讀取start_urls內(nèi)的地址,并為每一個(gè)地址生成一個(gè)Request對(duì)象,交給Scrapy下載并返回Response #該方法僅調(diào)用一次 def start_requests(self): for url in self.start_urls: yield self.make_requests_from_url(url) #start_requests()中調(diào)用,實(shí)際生成Request的函數(shù)。 #Request對(duì)象默認(rèn)的回調(diào)函數(shù)為parse(),提交的方式為get def make_requests_from_url(self, url): return Request(url, dont_filter=True) #默認(rèn)的Request對(duì)象回調(diào)函數(shù),處理返回的response。 #生成Item或者Request對(duì)象。用戶必須實(shí)現(xiàn)這個(gè)類 def parse(self, response): raise NotImplementedError @classmethod def handles_request(cls, request): return url_is_from_spider(request.url, cls) def __str__(self): return "<%s %r at 0x%0x>" % (type(self).__name__, self.name, id(self)) __repr__ = __str__
主要屬性和方法
name 定義spider名字的字符串。 例如,如果spider爬取 mywebsite.com ,該spider通常會(huì)被命名為 mywebsite allowed_domains 包含了spider允許爬取的域名(domain)的列表,可選。 start_urls 初始URL元祖/列表。當(dāng)沒(méi)有制定特定的URL時(shí),spider將從該列表中開始進(jìn)行爬取。 start_requests(self) 該方法必須返回一個(gè)可迭代對(duì)象(iterable)。該對(duì)象包含了spider用于爬?。J(rèn)實(shí)現(xiàn)是使用 start_urls 的url)的第一個(gè)Request。 當(dāng)spider啟動(dòng)爬取并且未指定start_urls時(shí),該方法被調(diào)用。 parse(self, response) 當(dāng)請(qǐng)求url返回網(wǎng)頁(yè)沒(méi)有指定回調(diào)函數(shù)時(shí),默認(rèn)的Request對(duì)象回調(diào)函數(shù)。用來(lái)處理網(wǎng)頁(yè)返回的response,以及生成Item或者Request對(duì)象。
以上是關(guān)于Scrapy框架下Spider類的簡(jiǎn)介的所有內(nèi)容,感謝各位的閱讀!希望分享的內(nèi)容對(duì)大家有幫助,更多相關(guān)知識(shí),歡迎關(guān)注創(chuàng)新互聯(lián)-成都網(wǎng)站建設(shè)公司行業(yè)資訊頻道!