這篇文章主要介紹了Web抓取框架JSoup怎么用,具有一定借鑒價(jià)值,感興趣的朋友可以參考下,希望大家閱讀完這篇文章之后大有收獲,下面讓小編帶著大家一起了解一下。
創(chuàng)新互聯(lián)建站服務(wù)項(xiàng)目包括洛陽網(wǎng)站建設(shè)、洛陽網(wǎng)站制作、洛陽網(wǎng)頁制作以及洛陽網(wǎng)絡(luò)營銷策劃等。多年來,我們專注于互聯(lián)網(wǎng)行業(yè),利用自身積累的技術(shù)優(yōu)勢、行業(yè)經(jīng)驗(yàn)、深度合作伙伴關(guān)系等,向廣大中小型企業(yè)、政府機(jī)構(gòu)等提供互聯(lián)網(wǎng)行業(yè)的解決方案,洛陽網(wǎng)站推廣取得了明顯的社會效益與經(jīng)濟(jì)效益。目前,我們服務(wù)的客戶以成都為中心已經(jīng)輻射到洛陽省份的部分城市,未來相信會繼續(xù)擴(kuò)大服務(wù)區(qū)域并繼續(xù)獲得客戶的支持與信任!
僅供參考學(xué)習(xí)。
Web抓取框架
就像許多現(xiàn)代科技一樣,從網(wǎng)站提取信息這一功能也有多個(gè)框架可以選擇。最流行的有JSoup、HTMLUnit和Selenium WebDriver。這篇文章討論JSoup。
JSoup
JSoup是個(gè)開源項(xiàng)目,提供強(qiáng)大的數(shù)據(jù)提取API??梢杂盟鼇斫馕鼋o定URL、文件或字符串中的HTML。它還能操縱HTML元素和屬性。
使用JSoup解析字符串
解析字符串是JSoup的最簡單的使用方式。
public class JSoupExample {
public static void main(String[] args) {
String html = "Website title Sample paragraph number 1
Sample paragraph number 2
";
Document doc = Jsoup.parse(html);
System.out.println(doc.title());
Elements paragraphs = doc.getElementsByTag("p");
for (Element paragraph : paragraphs) {
System.out.println(paragraph.text());
}
}
這段代碼非常直觀。調(diào)用parse()方法可以解析輸入的HTML,將其變成Document對象。調(diào)用該對象的方法就能操縱并提取數(shù)據(jù)。
在上面的例子中,我們首先輸出頁面的標(biāo)題。然后,我們獲取所有帶有標(biāo)簽“p”的元素。然后我們依次輸出每個(gè)段落的文本。
運(yùn)行這段代碼,我們可以得到以下輸出:
Website title
Sample paragraph number 1
Sample paragraph number 2
使用JSoup解析URL
解析URL的方法跟解析字符串有點(diǎn)不一樣,但基本原理是相同的:
public class JSoupExample {
public static void main(String[] args) throws IOException {
Document doc = Jsoup.connect("https://www.wikipedia.org").get();
Elements titles = doc.getElementsByClass("other-project");
for (Element title : titles) {
System.out.println(title.text());
}
}
}
要從URL抓取數(shù)據(jù),需要調(diào)用connect()方法,提供URL作為參數(shù)。然后使用get()從連接中獲取HTML。這個(gè)例子的輸出為:
Commons Freely usable photos & more
Wikivoyage Free travel guide
Wiktionary Free dictionary
Wikibooks Free textbooks
Wikinews Free news source
Wikidata Free knowledge base
Wikiversity Free course materials
Wikiquote Free quote compendium
MediaWiki Free & open wiki application
Wikisource Free library
Wikispecies Free species directory
Meta-Wiki Community coordination & documentation
可以看到,這個(gè)程序抓取了所有class為other-project的元素。
這種方法是最常用的,因此我們看一些通過URL進(jìn)行抓取的其他例子。
抓取指定URL的所有鏈接
public void allLinksInUrl() throws IOException {
Document doc = Jsoup.connect("https://www.wikipedia.org").get();
Elements links = doc.select("a[href]");
for (Element link : links) {
System.out.println("\nlink : " + link.attr("href"));
System.out.println("text : " + link.text());
}
}
運(yùn)行結(jié)果是一個(gè)很長的列表:
Link : //en.wikipedia.org/
Text : English 5 678 000+ articles
Link : //ja.wikipedia.org/
Text : 日本語 1 112 000+ 記事
Link : //es.wikipedia.org/
Text : Espa?ol 1 430 000+ artículos
Link : //de.wikipedia.org/
Text : Deutsch 2 197 000+ Artikel
Link : //ru.wikipedia.org/
Text : Русский 1 482 000+ статей
Link : //it.wikipedia.org/
Text : Italiano 1 447 000+ voci
Link : //fr.wikipedia.org/
Text : Fran?ais 2 000 000+ articles
Link : //zh.wikipedia.org/
Text : 中文 1 013 000+ 條目
Text : Wiktionary Free dictionary
Link : //www.wikibooks.org/
Text : Wikibooks Free textbooks
Link : //www.wikinews.org/
Text : Wikinews Free news source
Link : //www.wikidata.org/
Text : Wikidata Free knowledge base
Link : //www.wikiversity.org/
Text : Wikiversity Free course materials
Link : //www.wikiquote.org/
Text : Wikiquote Free quote compendium
Link : //www.mediawiki.org/
Text : MediaWiki Free & open wiki application
Link : //www.wikisource.org/
Text : Wikisource Free library
Link : //species.wikimedia.org/
Text : Wikispecies Free species directory
Link : //meta.wikimedia.org/
Text : Meta-Wiki Community coordination & documentation
Link : https://creativecommons.org/licenses/by-sa/3.0/
Text : Creative Commons Attribution-ShareAlike License
Link : //meta.wikimedia.org/wiki/Terms_of_Use
Text : Terms of Use
Link : //meta.wikimedia.org/wiki/Privacy_policy
Text : Privacy Policy
與此相似,你還可以得到圖像的數(shù)量、元信息、表單參數(shù)等一切你能想到的東西,因此經(jīng)常被用于獲取統(tǒng)計(jì)數(shù)據(jù)。
使用JSoup解析文件
public void parseFile() throws URISyntaxException, IOException {
URL path = ClassLoader.getSystemResource("page.html");
File inputFile = new File(path.toURI());
Document document = Jsoup.parse(inputFile, "UTF-8");
System.out.println(document.title());
//parse document in any way
}
如果要解析文件,就不需要給網(wǎng)站發(fā)送請求,因此不用擔(dān)心運(yùn)行程序會給 Try Prime
可以把新的代碼以.html形式保存到本機(jī),或者通過HTTP請求發(fā)送大歐網(wǎng)站上,不過要注意后者可能是非法的。
感謝你能夠認(rèn)真閱讀完這篇文章,希望小編分享的“Web抓取框架JSoup怎么用”這篇文章對大家有幫助,同時(shí)也希望大家多多支持創(chuàng)新互聯(lián),關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道,更多相關(guān)知識等著你來學(xué)習(xí)!