這篇文章主要講解了“怎么利用Python爬取網(wǎng)頁(yè)內(nèi)容”,文中的講解內(nèi)容簡(jiǎn)單清晰,易于學(xué)習(xí)與理解,下面請(qǐng)大家跟著小編的思路慢慢深入,一起來(lái)研究和學(xué)習(xí)“怎么利用Python爬取網(wǎng)頁(yè)內(nèi)容”吧!
公司專(zhuān)注于為企業(yè)提供成都網(wǎng)站制作、成都網(wǎng)站設(shè)計(jì)、微信公眾號(hào)開(kāi)發(fā)、商城開(kāi)發(fā),微信平臺(tái)小程序開(kāi)發(fā),軟件定制網(wǎng)站設(shè)計(jì)等一站式互聯(lián)網(wǎng)企業(yè)服務(wù)。憑借多年豐富的經(jīng)驗(yàn),我們會(huì)仔細(xì)了解各客戶的需求而做出多方面的分析、設(shè)計(jì)、整合,為客戶設(shè)計(jì)出具風(fēng)格及創(chuàng)意性的商業(yè)解決方案,成都創(chuàng)新互聯(lián)更提供一系列網(wǎng)站制作和網(wǎng)站推廣的服務(wù)。
編寫(xiě)執(zhí)行代碼
首先,你要安裝requests和BeautifulSoup4,然后執(zhí)行如下代碼. import requests from bs4 import BeautifulSoup iurl = 'http://news.sina.com.cn/c/nd/2017-08-03/doc-ifyitapp0128744.shtml' res = requests.get(iurl) res.encoding = 'utf-8' #print(len(res.text)) soup = BeautifulSoup(res.text,'html.parser') #標(biāo)題 H1 = soup.select('#artibodyTitle')[0].text #來(lái)源 time_source = soup.select('.time-source')[0].text #來(lái)源 origin = soup.select('#artibody p')[0].text.strip() #原標(biāo)題 oriTitle = soup.select('#artibody p')[1].text.strip() #內(nèi)容 raw_content = soup.select('#artibody p')[2:19] content = [] for paragraph in raw_content: content.append(paragraph.text.strip()) '@'.join(content) #責(zé)任編輯 ae = soup.select('.article-editor')[0].text
感謝各位的閱讀,以上就是“怎么利用Python爬取網(wǎng)頁(yè)內(nèi)容”的內(nèi)容了,經(jīng)過(guò)本文的學(xué)習(xí)后,相信大家對(duì)怎么利用Python爬取網(wǎng)頁(yè)內(nèi)容這一問(wèn)題有了更深刻的體會(huì),具體使用情況還需要大家實(shí)踐驗(yàn)證。這里是創(chuàng)新互聯(lián),小編將為大家推送更多相關(guān)知識(shí)點(diǎn)的文章,歡迎關(guān)注!