真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

Python爬蟲的兩套解析方法和四種爬蟲實現(xiàn)

【本文轉(zhuǎn)載自微信公眾號:數(shù)據(jù)科學(xué)家養(yǎng)成記,作者:louwill,轉(zhuǎn)載授權(quán)請聯(lián)系原作者】 

對于大多數(shù)朋友而言,爬蟲絕對是學(xué)習(xí)python的最好的起手和入門方式。因為爬蟲思維模式固定,編程模式也相對簡單,一般在細(xì)節(jié)處理上積累一些經(jīng)驗都可以成功入門。本文想針對某一網(wǎng)頁對python基礎(chǔ)爬蟲的兩大解析庫(BeautifulSoup和lxml)和幾種信息提取實現(xiàn)方法進(jìn)行分析,以開python爬蟲之初見。

10年積累的網(wǎng)站設(shè)計制作、網(wǎng)站制作經(jīng)驗,可以快速應(yīng)對客戶對網(wǎng)站的新想法和需求。提供各種問題對應(yīng)的解決方案。讓選擇我們的客戶得到更好、更有力的網(wǎng)絡(luò)服務(wù)。我雖然不認(rèn)識你,你也不認(rèn)識我。但先做網(wǎng)站后付款的網(wǎng)站建設(shè)流程,更有紅安免費網(wǎng)站建設(shè)讓你可以放心的選擇與我們合作。

基礎(chǔ)爬蟲的固定模式

筆者這里所談的基礎(chǔ)爬蟲,指的是不需要處理像異步加載、驗證碼、代理等高階爬蟲技術(shù)的爬蟲方法。一般而言,基礎(chǔ)爬蟲的兩大請求庫urllib和requests中requests通常為大多數(shù)人所鐘愛,當(dāng)然urllib也功能齊全。兩大解析庫BeautifulSoup因其強(qiáng)大的HTML文檔解析功能而備受青睞,另一款解析庫lxml在搭配xpath表達(dá)式的基礎(chǔ)上也效率提高。就基礎(chǔ)爬蟲來說,兩大請求庫和兩大解析庫的組合方式可以依個人偏好來選擇。


筆者喜歡用的爬蟲組合工具是:

  • requests+BeautifulSoup

  • requests+lxml

同一網(wǎng)頁爬蟲的四種實現(xiàn)方式

    筆者以騰訊新聞首頁的新聞信息抓取為例。
    首頁外觀如下:

Python爬蟲的兩套解析方法和四種爬蟲實現(xiàn)

比如說我們想抓取每個新聞的標(biāo)題和鏈接,并將其組合為一個字典的結(jié)構(gòu)打印出來。首先查看HTML源碼確定新聞標(biāo)題信息組織形式。

Python爬蟲的兩套解析方法和四種爬蟲實現(xiàn)

可以目標(biāo)信息存在于em標(biāo)簽下a標(biāo)簽內(nèi)的文本和href屬性中。可直接利用requests庫構(gòu)造請求,并用BeautifulSoup或者lxml進(jìn)行解析。

  • 方式一:requests+BeautifulSoup+select# select methodimport requests from bs4 import BeautifulSoup headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.119 Safari/537.36'} url = 'http://news.qq.com/'Soup = BeautifulSoup(requests.get(url=url, headers=headers).text.encode("utf-8"), 'lxml') em = Soup.select('em[class="f14 l24"] a') for i in em:    title = i.get_text()    link = i['href']    print({'標(biāo)題': title,           '鏈接': link    })

     很常規(guī)的處理方式,抓取效果如下:

    Python爬蟲的兩套解析方法和四種爬蟲實現(xiàn)

    • 方式二:requests+BeautifulSoup+find_all進(jìn)行信息提取

    # find_all methodimport requests from bs4 import BeautifulSoup
    headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.119 Safari/537.36'}
    url = 'http://news.qq.com/'Soup = BeautifulSoup(requests.get(url=url, headers=headers).text.encode("utf-8"), 'lxml')
    em = Soup.find_all('em', attrs={'class': 'f14 l24'})for i in em:
        title = i.a.get_text()
        link = i.a['href']
        print({'標(biāo)題': title,            '鏈接': link
        })

    同樣是requests+BeautifulSoup的爬蟲組合,但在信息提取上采用了find_all的方式。效果如下:

    Python爬蟲的兩套解析方法和四種爬蟲實現(xiàn)

    • 方式三:requests+lxml/etree+xpath表達(dá)式

    # lxml/etree methodimport requests from lxml import etree
    
    headers = {    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.119 Safari/537.36'}
    url = 'http://news.qq.com/'html = requests.get(url = url, headers = headers)
    con = etree.HTML(html.text)
    
    title = con.xpath('//em[@class="f14 l24"]/a/text()')
    link = con.xpath('//em[@class="f14 l24"]/a/@href') for i in zip(title, link):
        print({'標(biāo)題': i[0],
               '鏈接': i[1]
        })

    使用lxml庫下的etree模塊進(jìn)行解析,然后使用xpath表達(dá)式進(jìn)行信息提取,效率要略高于BeautifulSoup+select方法。這里對兩個列表的組合采用了zip方法。效果如下:

    Python爬蟲的兩套解析方法和四種爬蟲實現(xiàn)

    • 方式四:requests+lxml/html/fromstring+xpath表達(dá)式

    # lxml/html/fromstring methodimport requests import lxml.html as HTML
    
    headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.119 Safari/537.36'}
    url = 'http://news.qq.com/'con = HTML.fromstring(requests.get(url = url, headers = headers).text)
    title = con.xpath('//em[@class="f14 l24"]/a/text()')
    link = con.xpath('//em[@class="f14 l24"]/a/@href') for i in zip(title, link):
        print({'標(biāo)題': i[0],'鏈接': i[1]
        })

    跟方法三類似,只是在解析上使用了lxml庫下的html.fromstring模塊。抓取效果如下:

    Python爬蟲的兩套解析方法和四種爬蟲實現(xiàn)

    很多人覺得爬蟲有點難以掌握,因為知識點太多,需要懂前端、需要python熟練、還需要懂?dāng)?shù)據(jù)庫,更不用說正則表達(dá)式、XPath表達(dá)式這些。其實對于一個簡單網(wǎng)頁的數(shù)據(jù)抓取,不妨多嘗試幾種抓取方案,舉一反三,也更能對python爬蟲有較深的理解。長此以往,對于各類網(wǎng)頁結(jié)構(gòu)都有所涉獵,自然經(jīng)驗豐富,水到渠成。


    網(wǎng)頁標(biāo)題:Python爬蟲的兩套解析方法和四種爬蟲實現(xiàn)
    當(dāng)前路徑:http://weahome.cn/article/gdsops.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部