這篇文章主要講解了“python scrapy.Request怎么發(fā)送請求”,文中的講解內(nèi)容簡單清晰,易于學(xué)習(xí)與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學(xué)習(xí)“python scrapy.Request怎么發(fā)送請求”吧!
成都創(chuàng)新互聯(lián)主營江門網(wǎng)站建設(shè)的網(wǎng)絡(luò)公司,主營網(wǎng)站建設(shè)方案,app軟件定制開發(fā),江門h5微信小程序定制開發(fā)搭建,江門網(wǎng)站營銷推廣歡迎江門等地區(qū)企業(yè)咨詢
說明
1、使用scrapy.Request()指定method,body參數(shù)發(fā)送post請求。
2、使用scrapy.FormRequest()發(fā)送post請求,也可以發(fā)送表格和ajax請求。
實(shí)例
import scrapy class Git2Spider(scrapy.Spider): name = 'git2' allowed_domains = ['github.com'] start_urls = ['http://github.com/login'] def parse(self, response): username = 'GitLqr' password = 'balabala' # 從登錄頁面響應(yīng)中解析出post數(shù)據(jù) token = response.xpath('//input[@name="authenticity_token"]/@value').extract_first() post_data = { 'commit': 'Sign in', 'authenticity_token': token, 'login': username, 'password': password, 'webauthn-support': 'supported', } print(post_data) # 針對登錄url發(fā)送post請求 yield scrapy.FormRequest( url='https://github.com/session', callback=self.after_login, formdata=post_data ) def after_login(self, response): yield scrapy.Request('https://github.com/GitLqr', callback=self.check_login) def check_login(self, response): print(response.xpath('/html/head/title/text()').extract_first())
感謝各位的閱讀,以上就是“python scrapy.Request怎么發(fā)送請求”的內(nèi)容了,經(jīng)過本文的學(xué)習(xí)后,相信大家對python scrapy.Request怎么發(fā)送請求這一問題有了更深刻的體會(huì),具體使用情況還需要大家實(shí)踐驗(yàn)證。這里是創(chuàng)新互聯(lián),小編將為大家推送更多相關(guān)知識(shí)點(diǎn)的文章,歡迎關(guān)注!