真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

使用Jsoup如何實現(xiàn)爬蟲技術(shù)

這篇文章給大家分享的是有關(guān)使用Jsoup如何實現(xiàn)爬蟲技術(shù)的內(nèi)容。小編覺得挺實用的,因此分享給大家做個參考。一起跟隨小編過來看看吧。

創(chuàng)新互聯(lián)長期為1000多家客戶提供的網(wǎng)站建設(shè)服務(wù),團(tuán)隊從業(yè)經(jīng)驗10年,關(guān)注不同地域、不同群體,并針對不同對象提供差異化的產(chǎn)品和服務(wù);打造開放共贏平臺,與合作伙伴共同營造健康的互聯(lián)網(wǎng)生態(tài)環(huán)境。為敘州企業(yè)提供專業(yè)的網(wǎng)站制作、成都網(wǎng)站設(shè)計,敘州網(wǎng)站改版等技術(shù)服務(wù)。擁有十載豐富建站經(jīng)驗和眾多成功案例,為您定制開發(fā)。

1.Jsoup簡述

Java中支持的爬蟲框架有很多,比如WebMagic、Spider、Jsoup等。今天我們使用Jsoup來實現(xiàn)一個簡單的爬蟲程序。

Jsoup擁有十分方便的api來處理html文檔,比如參考了DOM對象的文檔遍歷方法,參考了CSS選擇器的用法等等,因此我們可以使用Jsoup快速地掌握爬取頁面數(shù)據(jù)的技巧。

2.快速開始

1)編寫HTML頁面

使用Jsoup如何實現(xiàn)爬蟲技術(shù)

頁面中表格的商品信息是我們要爬取的數(shù)據(jù)。其中屬性pname類的商品名稱,以及屬于pimg類的商品圖片。

2)使用HttpClient讀取HTML頁面

HttpClient是一個處理Http協(xié)議數(shù)據(jù)的工具,使用它可以將HTML頁面作為輸入流讀進(jìn)java程序中??梢詮膆ttp://hc.apache.org/下載HttpClient的jar包。

使用Jsoup如何實現(xiàn)爬蟲技術(shù)

3)使用Jsoup解析html字符串

通過引入Jsoup工具,直接調(diào)用parse方法來解析一個描述html頁面內(nèi)容的字符串來獲得一個Document對象。該Document對象以操作DOM樹的方式來獲得html頁面上指定的內(nèi)容。相關(guān)API可以參考Jsoup官方文檔:https://jsoup.org/cookbook/

下面我們使用Jsoup來獲取上述html中指定的商品名稱和價格的信息。

使用Jsoup如何實現(xiàn)爬蟲技術(shù)

至此,我們已經(jīng)實現(xiàn)使用HttpClient+Jsoup爬取HTML頁面數(shù)據(jù)的功能。接下來,我們讓效果更直觀一些,比如將爬取的數(shù)據(jù)存到數(shù)據(jù)庫中,將圖片存到服務(wù)器上。

3.保存爬取的頁面數(shù)據(jù)

1)保存普通數(shù)據(jù)到數(shù)據(jù)庫中

將爬取的數(shù)據(jù)封裝進(jìn)實體Bean中,并存到數(shù)據(jù)庫內(nèi)。

使用Jsoup如何實現(xiàn)爬蟲技術(shù)

2)保存圖片到服務(wù)器上

直接通過下載圖片的方式將圖片保存到服務(wù)器本地。

使用Jsoup如何實現(xiàn)爬蟲技術(shù)

感謝各位的閱讀!關(guān)于使用Jsoup如何實現(xiàn)爬蟲技術(shù)就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,讓大家可以學(xué)到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到吧!


本文標(biāo)題:使用Jsoup如何實現(xiàn)爬蟲技術(shù)
當(dāng)前URL:http://weahome.cn/article/jcdsig.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部