真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

python做爬蟲(chóng)的小技巧-創(chuàng)新互聯(lián)

創(chuàng)新互聯(lián)www.cdcxhl.cn八線動(dòng)態(tài)BGP香港云服務(wù)器提供商,新人活動(dòng)買多久送多久,劃算不套路!

創(chuàng)新互聯(lián)公司總部坐落于成都市區(qū),致力網(wǎng)站建設(shè)服務(wù)有網(wǎng)站設(shè)計(jì)、成都網(wǎng)站設(shè)計(jì)、網(wǎng)絡(luò)營(yíng)銷策劃、網(wǎng)頁(yè)設(shè)計(jì)、網(wǎng)站維護(hù)、公眾號(hào)搭建、成都小程序開(kāi)發(fā)、軟件開(kāi)發(fā)等為企業(yè)提供一整套的信息化建設(shè)解決方案。創(chuàng)造真正意義上的網(wǎng)站建設(shè),為互聯(lián)網(wǎng)品牌在互動(dòng)行銷領(lǐng)域創(chuàng)造價(jià)值而不懈努力!

小編給大家分享一下python做爬蟲(chóng)的小技巧,希望大家閱讀完這篇文章后大所收獲,下面讓我們一起去探討吧!

整體思路流程

通過(guò)URL獲取說(shuō)要爬取的頁(yè)面的響應(yīng)信息(Requests庫(kù)的使用)
通過(guò)python中的解析庫(kù)來(lái)對(duì)response進(jìn)行結(jié)構(gòu)化解析(BeautifulSoup庫(kù)的使用)
通過(guò)對(duì)解析庫(kù)的使用和對(duì)所需要的信息的定位從response中獲取需要的數(shù)據(jù)(selecter和xpath的使用)
將數(shù)據(jù)組織成一定的格式進(jìn)行保存(MongoDB的使用)
通過(guò)對(duì)數(shù)據(jù)庫(kù)中的數(shù)據(jù)進(jìn)行篩選和組織,進(jìn)行數(shù)據(jù)可視化的初步展示(HighCharts庫(kù)的使用)

簡(jiǎn)單代碼演示

 準(zhǔn)備工作

下載并安裝所需要的python庫(kù),包括:

requests庫(kù):用于向指定url發(fā)起請(qǐng)求
BeautifulSoup庫(kù):用于解析返回的網(wǎng)頁(yè)信息
lxml庫(kù):用于解析網(wǎng)頁(yè)返回結(jié)果
pymongo庫(kù):用于實(shí)現(xiàn)python對(duì)MongoDB的操作

 對(duì)所需要的網(wǎng)頁(yè)進(jìn)行請(qǐng)求并解析返回的數(shù)據(jù)

對(duì)于想要做一個(gè)簡(jiǎn)單的爬蟲(chóng)而言,這一步其實(shí)很簡(jiǎn)單,主要是通過(guò)requests庫(kù)來(lái)進(jìn)行請(qǐng)求,然后對(duì)返回的數(shù)據(jù)進(jìn)行一個(gè)解析,解析之后通過(guò)對(duì)于元素的定位和選擇來(lái)獲取所需要的數(shù)據(jù)元素,進(jìn)而獲取到數(shù)據(jù)的一個(gè)過(guò)程。

以上就是一個(gè)簡(jiǎn)單的網(wǎng)頁(yè)爬蟲(chóng)的制作過(guò)程,我們可以通過(guò)定義不同的爬蟲(chóng)來(lái)實(shí)現(xiàn)爬取不同頁(yè)面的信息,并通過(guò)程序的控制來(lái)實(shí)現(xiàn)一個(gè)自動(dòng)化爬蟲(chóng)。

以下是一個(gè)爬蟲(chóng)的實(shí)例

import requests
from bs4 import BeautifulSoup

start_url = 'http://bj.58.com/sale.shtml'
url_host = 'http://bj.58.com'
#定義一個(gè)爬蟲(chóng)函數(shù)來(lái)獲取二手市場(chǎng)頁(yè)面中的全部大類頁(yè)面的連接
def get_channel_urls(url):
    #使用Requests庫(kù)來(lái)進(jìn)行一次請(qǐng)求
    web_data = requests.get(url)
    #使用BeautifulSoup對(duì)獲取到的頁(yè)面進(jìn)行解析
    soup = BeautifulSoup(web_data.text, 'lxml')
    #根據(jù)頁(yè)面內(nèi)的定位信息獲取到全部大類所對(duì)應(yīng)的連接
    urls = soup.select('ul.ym-submnu > li > b > a')
    #作這兩行處理是因?yàn)橛械臉?biāo)簽有鏈接,但是卻是空內(nèi)容
    for link in urls:
        if link.text.isspace():
            continue
        else:
            page_url = url_host + link.get('href')
            print(page_url)

看完了這篇文章,相信你對(duì)python做爬蟲(chóng)的小技巧有了一定的了解,想了解更多相關(guān)知識(shí),歡迎關(guān)注創(chuàng)新互聯(lián)-成都網(wǎng)站建設(shè)公司行業(yè)資訊頻道,感謝各位的閱讀!


分享題目:python做爬蟲(chóng)的小技巧-創(chuàng)新互聯(lián)
文章網(wǎng)址:http://weahome.cn/article/djpsjg.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部