在Python中使用requests庫爬取數(shù)據(jù)時返回為空如何解決?很多新手對此不是很清楚,為了幫助大家解決這個難題,下面小編將為大家詳細講解,有這方面需求的人可以來學(xué)習(xí)下,希望你能有所收獲。
創(chuàng)新互聯(lián)主營漢源網(wǎng)站建設(shè)的網(wǎng)絡(luò)公司,主營網(wǎng)站建設(shè)方案,重慶APP開發(fā),漢源h5成都微信小程序搭建,漢源網(wǎng)站營銷推廣歡迎漢源等地區(qū)企業(yè)咨詢Python主要應(yīng)用于:1、Web開發(fā);2、數(shù)據(jù)科學(xué)研究;3、網(wǎng)絡(luò)爬蟲;4、嵌入式應(yīng)用開發(fā);5、游戲開發(fā);6、桌面應(yīng)用開發(fā)。
html字段:
robots協(xié)議:
現(xiàn)在我們開始用python IDLE 爬取
import requests r = requests.get("https://baike.so.com/doc/24368318-25185095.html") r.status_code r.text
結(jié)果分析,我們可以成功訪問到該網(wǎng)頁,但是得不到網(wǎng)頁的結(jié)果。被360搜索識別,我們將headers修改。
輸出有個小插曲,網(wǎng)頁內(nèi)容很多,我是想將前500個字符輸出,第一次格式錯了
import requests headers = { 'Cookie':'OCSSID=4df0bjva6j7ejussu8al3eqo03', 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36' '(KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36', } r = requests.get("https://baike.so.com/doc/24368318-25185095.html", headers = headers) r.status_code r.text
接著我們對需要的內(nèi)容進行爬取,用(.find)方法找到我們內(nèi)容位置,用(.children)下行遍歷的方法對內(nèi)容進行爬取,用(isinstance)方法對內(nèi)容進行篩選:
import requests from bs4 import BeautifulSoup import bs4 headers = { 'Cookie':'OCSSID=4df0bjva6j7ejussu8al3eqo03', 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36' '(KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36', } r = requests.get("https://baike.so.com/doc/24368318-25185095.html", headers = headers) r.status_code r.encoding = r.apparent_encoding soup = BeautifulSoup(r.text, "html.parser") for tr in soup.find('tbody').children: if isinstance(tr, bs4.element.Tag): tds = tr('td') print([tds[0].string, tds[1].string, tds[2].string])
得到結(jié)果如下:
修改輸出的數(shù)目,我們用Clist列表來存取所有城市的排名,將前20個輸出代碼如下:
import requests from bs4 import BeautifulSoup import bs4 Clist = list() #存所有城市的列表 headers = { 'Cookie':'OCSSID=4df0bjva6j7ejussu8al3eqo03', 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36' '(KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36', } r = requests.get("https://baike.so.com/doc/24368318-25185095.html", headers = headers) r.encoding = r.apparent_encoding #將html的編碼解碼為utf-8格式 soup = BeautifulSoup(r.text, "html.parser") #重新排版 for tr in soup.find('tbody').children: #將tbody標簽的子列全部讀取 if isinstance(tr, bs4.element.Tag): #篩選tb列表,將有內(nèi)容的篩選出啦 tds = tr('td') Clist.append([tds[0].string, tds[1].string, tds[2].string]) for i in range(21): print(Clist[i])
最終結(jié)果:
看完上述內(nèi)容是否對您有幫助呢?如果還想對相關(guān)知識有進一步的了解或閱讀更多相關(guān)文章,請關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道,感謝您對創(chuàng)新互聯(lián)網(wǎng)站建設(shè)公司,的支持。