這篇文章主要介紹了Web抓取框架JSoup怎么用,具有一定借鑒價值,感興趣的朋友可以參考下,希望大家閱讀完這篇文章之后大有收獲,下面讓小編帶著大家一起了解一下。
成都創(chuàng)新互聯(lián)公司專注于武鳴企業(yè)網(wǎng)站建設(shè),響應式網(wǎng)站,商城網(wǎng)站制作。武鳴網(wǎng)站建設(shè)公司,為武鳴等地區(qū)提供建站服務。全流程定制開發(fā),專業(yè)設(shè)計,全程項目跟蹤,成都創(chuàng)新互聯(lián)公司專業(yè)和態(tài)度為您提供的服務僅供參考學習。
Web抓取框架
就像許多現(xiàn)代科技一樣,從網(wǎng)站提取信息這一功能也有多個框架可以選擇。最流行的有JSoup、HTMLUnit和Selenium WebDriver。這篇文章討論JSoup。
JSoup
JSoup是個開源項目,提供強大的數(shù)據(jù)提取API。可以用它來解析給定URL、文件或字符串中的HTML。它還能操縱HTML元素和屬性。
使用JSoup解析字符串
解析字符串是JSoup的最簡單的使用方式。
public class JSoupExample {
public static void main(String[] args) {
String html = "Website title Sample paragraph number 1
Sample paragraph number 2
";
Document doc = Jsoup.parse(html);
System.out.println(doc.title());
Elements paragraphs = doc.getElementsByTag("p");
for (Element paragraph : paragraphs) {
System.out.println(paragraph.text());
}
}
這段代碼非常直觀。調(diào)用parse()方法可以解析輸入的HTML,將其變成Document對象。調(diào)用該對象的方法就能操縱并提取數(shù)據(jù)。
在上面的例子中,我們首先輸出頁面的標題。然后,我們獲取所有帶有標簽“p”的元素。然后我們依次輸出每個段落的文本。
運行這段代碼,我們可以得到以下輸出:
Website title
Sample paragraph number 1
Sample paragraph number 2
使用JSoup解析URL
解析URL的方法跟解析字符串有點不一樣,但基本原理是相同的:
public class JSoupExample {
public static void main(String[] args) throws IOException {
Document doc = Jsoup.connect("https://www.wikipedia.org").get();
Elements titles = doc.getElementsByClass("other-project");
for (Element title : titles) {
System.out.println(title.text());
}
}
}
要從URL抓取數(shù)據(jù),需要調(diào)用connect()方法,提供URL作為參數(shù)。然后使用get()從連接中獲取HTML。這個例子的輸出為:
Commons Freely usable photos & more
Wikivoyage Free travel guide
Wiktionary Free dictionary
Wikibooks Free textbooks
Wikinews Free news source
Wikidata Free knowledge base
Wikiversity Free course materials
Wikiquote Free quote compendium
MediaWiki Free & open wiki application
Wikisource Free library
Wikispecies Free species directory
Meta-Wiki Community coordination & documentation
可以看到,這個程序抓取了所有class為other-project的元素。
這種方法是最常用的,因此我們看一些通過URL進行抓取的其他例子。
抓取指定URL的所有鏈接
public void allLinksInUrl() throws IOException {
Document doc = Jsoup.connect("https://www.wikipedia.org").get();
Elements links = doc.select("a[href]");
for (Element link : links) {
System.out.println("\nlink : " + link.attr("href"));
System.out.println("text : " + link.text());
}
}
運行結(jié)果是一個很長的列表:
Link : //en.wikipedia.org/
Text : English 5 678 000+ articles
Link : //ja.wikipedia.org/
Text : 日本語 1 112 000+ 記事
Link : //es.wikipedia.org/
Text : Espa?ol 1 430 000+ artículos
Link : //de.wikipedia.org/
Text : Deutsch 2 197 000+ Artikel
Link : //ru.wikipedia.org/
Text : Русский 1 482 000+ статей
Link : //it.wikipedia.org/
Text : Italiano 1 447 000+ voci
Link : //fr.wikipedia.org/
Text : Fran?ais 2 000 000+ articles
Link : //zh.wikipedia.org/
Text : 中文 1 013 000+ 條目
Text : Wiktionary Free dictionary
Link : //www.wikibooks.org/
Text : Wikibooks Free textbooks
Link : //www.wikinews.org/
Text : Wikinews Free news source
Link : //www.wikidata.org/
Text : Wikidata Free knowledge base
Link : //www.wikiversity.org/
Text : Wikiversity Free course materials
Link : //www.wikiquote.org/
Text : Wikiquote Free quote compendium
Link : //www.mediawiki.org/
Text : MediaWiki Free & open wiki application
Link : //www.wikisource.org/
Text : Wikisource Free library
Link : //species.wikimedia.org/
Text : Wikispecies Free species directory
Link : //meta.wikimedia.org/
Text : Meta-Wiki Community coordination & documentation
Link : https://creativecommons.org/licenses/by-sa/3.0/
Text : Creative Commons Attribution-ShareAlike License
Link : //meta.wikimedia.org/wiki/Terms_of_Use
Text : Terms of Use
Link : //meta.wikimedia.org/wiki/Privacy_policy
Text : Privacy Policy
與此相似,你還可以得到圖像的數(shù)量、元信息、表單參數(shù)等一切你能想到的東西,因此經(jīng)常被用于獲取統(tǒng)計數(shù)據(jù)。
使用JSoup解析文件
public void parseFile() throws URISyntaxException, IOException {
URL path = ClassLoader.getSystemResource("page.html");
File inputFile = new File(path.toURI());
Document document = Jsoup.parse(inputFile, "UTF-8");
System.out.println(document.title());
//parse document in any way
}
如果要解析文件,就不需要給網(wǎng)站發(fā)送請求,因此不用擔心運行程序會給服務器增添太多負擔。盡管這種方法有許多限制,并且數(shù)據(jù)是靜態(tài)的,因而不適合許多任務,但它提供了分析數(shù)據(jù)的更合法、更無害的方式。
得到的文檔可以用前面說過的任何方式解析。
設(shè)置屬性值
除了讀取字符串、URL和文件并獲取數(shù)據(jù)之外,我們還能修改數(shù)據(jù)和輸入表單。
例如,在訪問亞馬遜時,點擊左上角的網(wǎng)站標志,能返回到網(wǎng)站的首頁。
如果想改變這個行為,可以這樣做:
public void setAttributes() throws IOException {
Document doc = Jsoup.connect("https://www.amazon.com").get();
Element element = doc.getElementById("nav-logo");
System.out.println("Element: " + element.outerHtml());
element.children().attr("href", "notamazon.org");
System.out.println("Element with set attribute: " + element.outerHtml());
}
獲取網(wǎng)站標志的id后,我們可以查看其HTML。還可以訪問它的子元素,并改變其屬性。
Element:
Element with set attribute:
默認情況下,兩個子元素都指向了各自的鏈接。將屬性改變?yōu)閯e的值之后,可以看到子元素的href屬性被更新了。
添加或刪除類
除了設(shè)置屬性值之外,我們還可以修改前面的例子,給元素添加或刪除類:
public void changePage() throws IOException {
Document doc = Jsoup.connect("https://www.amazon.com").get();
Element element = doc.getElementById("nav-logo");
System.out.println("Original Element: " + element.outerHtml());
element.children().attr("href", "notamazon.org");
System.out.println("Element with set attribute: " + element.outerHtml());
element.addClass("someClass");
System.out.println("Element with added class: " + element.outerHtml());
element.removeClass("someClass");
System.out.println("Element with removed class: " + element.outerHtml());
}
運行代碼會給我們以下信息:
Original Element:
Element with set attribute:
Element with added class:
Element with removed class:
可以把新的代碼以.html形式保存到本機,或者通過HTTP請求發(fā)送大歐網(wǎng)站上,不過要注意后者可能是非法的。
感謝你能夠認真閱讀完這篇文章,希望小編分享的“Web抓取框架JSoup怎么用”這篇文章對大家有幫助,同時也希望大家多多支持創(chuàng)新互聯(lián),關(guān)注創(chuàng)新互聯(lián)-成都網(wǎng)站建設(shè)公司行業(yè)資訊頻道,更多相關(guān)知識等著你來學習!