創(chuàng)新互聯(lián)www.cdcxhl.cn八線動態(tài)BGP香港云服務(wù)器提供商,新人活動買多久送多久,劃算不套路!
創(chuàng)新互聯(lián)是一家專注于網(wǎng)站制作、成都做網(wǎng)站與策劃設(shè)計,石屏網(wǎng)站建設(shè)哪家好?創(chuàng)新互聯(lián)做網(wǎng)站,專注于網(wǎng)站建設(shè)十多年,網(wǎng)設(shè)計領(lǐng)域的專業(yè)建站公司;建站業(yè)務(wù)涵蓋:石屏等地區(qū)。石屏做網(wǎng)站價格咨詢:028-86922220這篇文章主要介紹重拾python爬蟲之urllib的案例,文中介紹的非常詳細(xì),具有一定的參考價值,感興趣的小伙伴們一定要看完!
為網(wǎng)絡(luò)請求的方式有四種,按時間順序排:
第一種,urllib2 ,這個包是基于python2的,官方已經(jīng)對python2停止更新了并且不再免費,我覺得這個urllib2沒必要再學(xué)習(xí)和使用
第二種,urllib 這個是python的標(biāo)準(zhǔn)庫,在python3里整合了python2的urllib和urllib2 ,有時間的可以學(xué)習(xí)一下。
第三種,urllib3,這個是第三方庫,是對第二種方式urllib的升級,做了很多改善,有時間可以學(xué)習(xí)一下。
第四種,也是很流行的requests,各種請求的方法非常的優(yōu)雅和人性化,其底層是urllib3,簡化headers、proxy、cookie等的操作。這個重點學(xué)習(xí)。
作為一個爬蟲工程師,如果你連urllib一點不會就說不過去了。雖然不常用,但是學(xué)習(xí)它,有它的歷史意義,對爬蟲的整個架構(gòu)有一個更透徹的了解。
一、簡介
urllib是Python中請求url連接的官方標(biāo)準(zhǔn)庫,在Python2中主要為urllib和urllib2,在Python3中整合成了urllib?;旧虾w了基礎(chǔ)的網(wǎng)絡(luò)請求功能。
該庫有四個模塊,分別是urllib.request,urllib.error,urllib.parse,urllib.robotparser。前三個比較常用。
urllib.request 發(fā)送http請求
urllib.error 處理請求過程中,出現(xiàn)的異常。
urllib.parse 解析url
urllib.robotparser 解析robots.txt 文件
二、請求方式
1、get請求
#第一步導(dǎo)包 from urllib import request url = "http://httpbin.org" #第二步請求 response = request.urlopen(url,timeout=1) #第三步打印返回數(shù)據(jù) print(response.read().decode())
訪問的結(jié)果會是一個http.client.HTTPResponse對象,使用此對象的read()方法,則可以獲取訪問網(wǎng)頁獲得的數(shù)據(jù)。但是要注意的是,獲得的數(shù)據(jù)會是bytes的二進制格式,所以需要decode()一下,轉(zhuǎn)換成字符串格式。
urllib發(fā)送請求是用urlopen()
源碼如下
urllib.request.urlopen(url, data=None, [timeout, ]*, cafile=None, capath=None, cadefault=False, context=None)
第一個參數(shù) String 類型的地址
data 是 bytes 類型的內(nèi)容,可通過 bytes()函數(shù)或者encode()轉(zhuǎn)為化字節(jié)流。它也是可選參數(shù)。使用 data 參數(shù),請求方式變成以 POST 方式提交表單。使用標(biāo)準(zhǔn)格式是application/x-www-form-urlencoded
timeout 參數(shù)是用于設(shè)置請求超時時間。單位是秒。
cafile和capath代表 CA 證書和 CA 證書的路徑。如果使用HTTPS則需要用到。
context參數(shù)必須是ssl.SSLContext類型,用來指定SSL設(shè)置
cadefault參數(shù)已經(jīng)被棄用,可以不用管了。
該方法也可以單獨傳入urllib.request.Request對象
該函數(shù)返回結(jié)果是一個http.client.HTTPResponse對象。
http.client.HTTPResponse對象。它具有msg、version、status、reason、debuglevel、closed等屬性以及read()、readinto()、getheader(name)、getheaders()、fileno()等函數(shù)。
# print(response.msg) # OK # print(response.version) #11 # print(response.status) #200 # print(response.reason) #OK # print(response.getcode()) #200 # print(response.getheaders) #> # print(response.geturl()) #http://httpbin.org/headers
2、post請求
from urllib import request,parse url = "http://httpbin.org"data = { 'name':'xfy'}# data = bytes(parse.urlencode(data),encoding='utf8'); data = parse.urlencode(data).encode() response = request.urlopen(url+"/post",data=data) print(response.status) #200print(response.read().decode())
data 需要被轉(zhuǎn)碼成字節(jié)流。而data 是一個字典。我們需要使用 parse.urlencode() 將字典轉(zhuǎn)化為字符串。再使用 bytes()或者encode() 轉(zhuǎn)為字節(jié)流。最后使用 urlopen() 發(fā)起請求,請求是模擬用 POST 方式提交表單數(shù)據(jù)。
這里說一下http://httpbin.org,這個url專門是用來爬蟲請求測試的。
http://httpbin.org/get 測試get請求 http://httpbin.org/post 測試post請求 http://httpbin.org/headers 測試獲得headers http://httpbin.org/ip 測試獲得ip http://httpbin.org/cookies 測試獲得cookies
三、創(chuàng)建 Request 對象
urlopen()還可以傳一個Request對象
req = request.Request(url+"/get") response = request.urlopen(req) print(response.read().decode())
urllib/request 包下有一個類Request
其初始化方法如下
def __init__(self, url, data=None, headers={}, origin_req_host=None, unverifiable=False, method=None):
url 參數(shù)是請求鏈接,這個是必傳參數(shù),其他的都是可選參數(shù)。
data 參數(shù)跟 urlopen() 中的 data 參數(shù)用法相同。
headers 參數(shù)是指定發(fā)起的 HTTP 請求的頭部信息。headers 是一個字典。它除了在 Request 中添加,還可以通過調(diào)用 Reques t實例的 add_header() 方法來添加請求頭。
origin_req_host 參數(shù)指的是請求方的 host 名稱或者 IP 地址。
unverifiable 參數(shù)表示這個請求是否是無法驗證的,默認(rèn)值是False。意思就是說用戶沒有足夠權(quán)限來選擇接收這個請求的結(jié)果。例如我們請求一個HTML文檔中的圖片,但是我們沒有自動抓取圖像的權(quán)限,我們就要將 unverifiable 的值設(shè)置成 True。
method 參數(shù)指的是發(fā)起的 HTTP 請求的方式,有 GET、POST、DELETE、PUT等
以上是重拾python爬蟲之urllib的案例的所有內(nèi)容,感謝各位的閱讀!希望分享的內(nèi)容對大家有幫助,更多相關(guān)知識,歡迎關(guān)注創(chuàng)新互聯(lián)-成都網(wǎng)站建設(shè)公司行業(yè)資訊頻道!