小編給大家分享一下Python如何爬取笑話大全,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
我們提供的服務(wù)有:做網(wǎng)站、網(wǎng)站建設(shè)、微信公眾號(hào)開發(fā)、網(wǎng)站優(yōu)化、網(wǎng)站認(rèn)證、白朗ssl等。為上千企事業(yè)單位解決了網(wǎng)站和推廣的問題。提供周到的售前咨詢和貼心的售后服務(wù),是有科學(xué)管理、有技術(shù)的白朗網(wǎng)站制作公司
代碼
import request from bs4 import BeautifulSoup headers={ 'user-agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3775.400 QQBrowser/10.6.4208.400' } #請(qǐng)求頭,爬蟲偽裝 for i in range(0,100): url = 'http://xiaohua.zol.com.cn/detail15/{}.html'.format(i) #爬蟲目標(biāo)網(wǎng)站 html = request.get(url, headers=headers) #請(qǐng)求后返回的源代碼 # html.encoding = 'utf-8' soup = BeautifulSoup(html.text, 'lxml') #對(duì)源代碼進(jìn)行解析 if html.status_code==200: # 訪問成功 title = soup.select(".article-title")[0].text.replace(' ', '') content = soup.select(".article-text")[0].text.replace(' ', '') with open('D:/xh.txt', 'a',encoding='utf-8') as f: #保存文件在D:/xh.txt文件中 f.write(title) f.write(content) f.write('\n\n') f.close() print(title, content) else: #訪問失敗 continue
以上是“Python如何爬取笑話大全”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對(duì)大家有所幫助,如果還想學(xué)習(xí)更多知識(shí),歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道!