這篇文章主要介紹python2如何爬取百度貼吧指定關(guān)鍵字和圖片,文中介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們一定要看完!
讓客戶滿意是我們工作的目標(biāo),不斷超越客戶的期望值來自于我們對這個(gè)行業(yè)的熱愛。我們立志把好的技術(shù)通過有效、簡單的方式提供給客戶,將通過不懈努力成為客戶在信息化領(lǐng)域值得信任、有價(jià)值的長期合作伙伴,公司提供的服務(wù)項(xiàng)目有:申請域名、虛擬空間、營銷軟件、網(wǎng)站建設(shè)、岳普湖網(wǎng)站維護(hù)、網(wǎng)站推廣。目的:在百度貼吧輸入關(guān)鍵字和要查找的起始結(jié)束頁,獲取帖子里面樓主所發(fā)的圖片
思路:
獲取分頁里面的帖子鏈接列表
獲取帖子里面樓主所發(fā)的圖片鏈接列表
保存圖片到本地
注意事項(xiàng):
問題:在谷歌瀏覽器使用xpath helper插件時(shí)有匹配結(jié)果,但在程序里面使用python內(nèi)帶的xpath匹配卻為空的原因。
原因:不同服務(wù)器會對不同的瀏覽器返回不同的數(shù)據(jù),導(dǎo)致在谷歌瀏覽器看到的和服務(wù)器返回的有區(qū)別
解決方法:使用IE瀏覽器的User-agenet,而且越老的版本,報(bào)錯(cuò)幾率相對越小
#!/usr/bin/env python # -*- coding:utf-8 -*- import urllib2 import urllib import os from lxml import etree keyword = raw_input('請輸入要查詢的關(guān)鍵字: ') keyword = {'kw':keyword} kw = urllib.urlencode(keyword) startpage = raw_input('請輸入開始頁數(shù): ') endpage = raw_input('請輸入結(jié)束頁數(shù): ') url = 'https://tieba.baidu.com/f' + '?' + kw print('開始下載...') # 計(jì)算下載的圖片個(gè)數(shù),注意:變量n如放在最外層循環(huán),可以統(tǒng)計(jì)每個(gè)分頁圖片個(gè)數(shù) n = 0 # 獲取分頁里面帖子鏈接列表,獲取每個(gè)帖子里樓主所發(fā)的圖片鏈接列表,保存圖片 # 獲取帖子鏈接列表 for page in range(int(startpage),int(endpage)+1): pnumber = {'pn': str((page - 1)*50)} pnumber = urllib.urlencode(pnumber) fullurl = url + '&' + pnumber # 發(fā)現(xiàn)使用谷歌瀏覽器的User-Agent,會導(dǎo)致后面的xpath匹配結(jié)果有時(shí)為空。原因:服務(wù)器會對不同的瀏覽器發(fā)出的同一請求返回不同格式的數(shù)據(jù),此時(shí)返回的數(shù)據(jù)和在谷歌瀏覽器里面看到的數(shù)據(jù)不同。 # 解決辦法:使用IE瀏覽器的User-Agent,因?yàn)镮E的相對來說更標(biāo)準(zhǔn),而且版本越老問題越少。 headers = {"User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64; Trident/7.0; rv:11.0) like Gecko"} request = urllib2.Request(fullurl,headers=headers) response = urllib2.urlopen(request) html = response.read() # 解析html 為 HTML DOM文檔 content = etree.HTML(html) # xpath使用下面括號內(nèi)容進(jìn)行匹配,使用a的屬性使用了class='j_th_tit'去過濾廣告則匹配結(jié)果為空;換成a的屬性rel="noreferrer"就解決。為啥換不清楚。思路,這個(gè)屬性不行換個(gè)屬性。 # 獲取每個(gè)分頁里面的帖子的鏈接列表 link_list = content.xpath('//div[@class="threadlist_lz clearfix"]/div/a[@rel="noreferrer"]/@href') # 獲取該帖子樓主所發(fā)的圖片鏈接列表 for link in link_list: link = 'https://tieba.baidu.com' + link request2 = urllib2.Request(link,headers=headers) response2 = urllib2.urlopen(request2) html2 = response2.read() # 把html字符串解析為html dom content2 = etree.HTML(html2) # 使用xpath匹配其里面層主所發(fā)的圖片的鏈接 link_list2 = content2.xpath('//img[@class="BDE_Image"]/@src') # 遍歷圖片鏈接列表,保存圖片到文件夾images內(nèi) for link2 in link_list2: request3 = urllib2.Request(link2,headers=headers) response3 = urllib2.urlopen(request3) html3 = response3.read() # 指定文件名 filename = link2[-10:] n += 1 print('正在保存第 %3d 張圖片'%n) # html3為返回的圖片內(nèi)容,把圖片寫入images2文件夾內(nèi) with open('images' + '/' + filename,'wb') as f: f.write(html3) print('下載結(jié)束!')
以上是“python2如何爬取百度貼吧指定關(guān)鍵字和圖片”這篇文章的所有內(nèi)容,感謝各位的閱讀!希望分享的內(nèi)容對大家有幫助,更多相關(guān)知識,歡迎關(guān)注創(chuàng)新互聯(lián)成都網(wǎng)站設(shè)計(jì)公司行業(yè)資訊頻道!
另外有需要云服務(wù)器可以了解下創(chuàng)新互聯(lián)scvps.cn,海內(nèi)外云服務(wù)器15元起步,三天無理由+7*72小時(shí)售后在線,公司持有idc許可證,提供“云服務(wù)器、裸金屬服務(wù)器、高防服務(wù)器、香港服務(wù)器、美國服務(wù)器、虛擬主機(jī)、免備案服務(wù)器”等云主機(jī)租用服務(wù)以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡單易用、服務(wù)可用性高、性價(jià)比高”等特點(diǎn)與優(yōu)勢,專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應(yīng)用場景需求。