真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

Python爬蟲有哪些庫

這篇文章主要講解了“Python爬蟲有哪些庫”,文中的講解內(nèi)容簡單清晰,易于學(xué)習(xí)與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學(xué)習(xí)“Python爬蟲有哪些庫”吧!

十多年的彌勒網(wǎng)站建設(shè)經(jīng)驗,針對設(shè)計、前端、開發(fā)、售后、文案、推廣等六對一服務(wù),響應(yīng)快,48小時及時工作處理。網(wǎng)絡(luò)營銷推廣的優(yōu)勢是能夠根據(jù)用戶設(shè)備顯示端的尺寸不同,自動調(diào)整彌勒建站的顯示方式,使網(wǎng)站能夠適用不同顯示終端,在瀏覽器中調(diào)整網(wǎng)站的寬度,無論在任何一種瀏覽器上瀏覽網(wǎng)站,都能展現(xiàn)優(yōu)雅布局與設(shè)計,從而大程度地提升瀏覽體驗。創(chuàng)新互聯(lián)公司從事“彌勒網(wǎng)站設(shè)計”,“彌勒網(wǎng)站推廣”以來,每個客戶項目都認(rèn)真落實執(zhí)行。

1.請求庫

1. requests

GitHub:https://github.com/psf/requests

requests庫應(yīng)該是現(xiàn)在做爬蟲最火最實用的庫了,非常的人性化。有關(guān)于它的使用我之前也寫過一篇文章 一起看看Python之Requests庫  ,大家可以去看一下。

有關(guān)于requests最詳細(xì)的使用方法,大家可以參考官方文檔:https://requests.readthedocs.io/en/master/

使用小案例:

>>> import requests >>> r = requests.get('https://api.github.com/user', auth=('user', 'pass')) >>> r.status_code 200 >>> r.headers['content-type'] 'application/json; charset=utf8' >>> r.encoding 'utf-8' >>> r.text u'{"type":"User"...' >>> r.json() {u'disk_usage': 368627, u'private_gists': 484, ...}

2. urllib3

GitHub:https://github.com/urllib3/urllib3

urllib3是一個非常強(qiáng)大的http請求庫,提供一系列的操作URL的功能。

有關(guān)于它的詳細(xì)使用方法可以參考:https://urllib3.readthedocs.io/en/latest/

使用小案例:

>>> import urllib3 >>> http = urllib3.PoolManager() >>> r = http.request('GET', 'http://httpbin.org/robots.txt') >>> r.status 200 >>> r.data 'User-agent: *\nDisallow: /deny\n'

3.selenium

GitHub:https://github.com/SeleniumHQ/selenium

自動化測試工具。一個調(diào)用瀏覽器的 driver,通過這個庫你可以直接調(diào)用瀏覽器完成某些操作,比如輸入驗證碼。

對于這個庫并非只是Python才能用,像JAVA、Python、C#等都能夠使用selenium這個庫

有關(guān)于Python語言如何去使用這個庫,大家可以去訪問https://seleniumhq.github.io/selenium/docs/api/py/  查看官方文檔

使用小案例:

from selenium import webdriver browser = webdriver.Firefox() browser.get('http://seleniumhq.org/')

4.aiohttp

GitHub:https://github.com/aio-libs/aiohttp

基于 asyncio 實現(xiàn)的 HTTP 框架。異步操作借助于 async/await 關(guān)鍵字,使用異步庫進(jìn)行數(shù)據(jù)抓取,可以大大提高效率。

這個屬于進(jìn)階爬蟲時候必須掌握的異步庫。有關(guān)于aiohttp的詳細(xì)操作,可以去官方文檔:https://aiohttp.readthedocs.io/en/stable/

使用小案例:

import aiohttp import asyncio async def fetch(session, url):  async with session.get(url) as response:  return await response.text() async def main():  async with aiohttp.ClientSession() as session:  html = await fetch(session, 'http://python.org')  print(html) if __name__ == '__main__':  loop = asyncio.get_event_loop()  loop.run_until_complete(main())

2 解析庫

1、beautifulsoup

官方文檔:https://www.crummy.com/software/BeautifulSoup/

html 和 XML  的解析,從網(wǎng)頁中提取信息,同時擁有強(qiáng)大的API和多樣解析方式。一個我經(jīng)常使用的解析庫,對于html的解析是非常的好用。對于寫爬蟲的人來說這也是必須掌握的庫。

2、lxml

GitHub:https://github.com/lxml/lxml

支持HTML和XML的解析,支持XPath解析方式,而且解析效率非常高。

3、pyquery

GitHub:https://github.com/gawel/pyquery

jQuery 的 Python 實現(xiàn),能夠以 jQuery 的語法來操作解析 HTML 文檔,易用性和解析速度都很好。

3. 數(shù)據(jù)存儲庫

1、pyMySQL

GitHub:https://github.com/PyMySQL/PyMySQL

官方文檔:https://pymysql.readthedocs.io/en/latest/

一個純 Python 實現(xiàn)的 MySQL 客戶端操作庫。非常的實用、非常的簡單。

2、pymongo

GitHub:https://github.com/MongoDB/mongo-python-driver

官方文檔:https://api.mongodb.com/python/

顧名思義,一個用于直接連接 mongodb 數(shù)據(jù)庫進(jìn)行查詢操作的庫。

3、redisdump

redis-dump是將redis和json互轉(zhuǎn)的工具;redis-dump是基于ruby開發(fā),需要ruby環(huán)境,而且新版本的redis-dump要求2.2.2以上的ruby版本,centos中yum只能安裝2.0版本的ruby。需要先安裝ruby的管理工具rvm安裝高版本的ruby。

感謝各位的閱讀,以上就是“Python爬蟲有哪些庫”的內(nèi)容了,經(jīng)過本文的學(xué)習(xí)后,相信大家對Python爬蟲有哪些庫這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是創(chuàng)新互聯(lián),小編將為大家推送更多相關(guān)知識點(diǎn)的文章,歡迎關(guān)注!


網(wǎng)站名稱:Python爬蟲有哪些庫
文章分享:http://weahome.cn/article/ihehcd.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部