小編給大家分享一下用python寫爬蟲的方法,希望大家閱讀完這篇文章后大所收獲,下面讓我們一起去探討吧!
臨武網(wǎng)站建設(shè)公司創(chuàng)新互聯(lián),臨武網(wǎng)站設(shè)計(jì)制作,有大型網(wǎng)站制作公司豐富經(jīng)驗(yàn)。已為臨武成百上千提供企業(yè)網(wǎng)站建設(shè)服務(wù)。企業(yè)網(wǎng)站搭建\外貿(mào)營(yíng)銷網(wǎng)站建設(shè)要多少錢,請(qǐng)找那個(gè)售后服務(wù)好的臨武做網(wǎng)站的公司定做!
一,獲取整個(gè)頁(yè)面數(shù)據(jù)
首先我們可以先獲取要下載圖片的整個(gè)頁(yè)面信息。
getjpg.py
#coding=utf-8 import urllib def getHtml(url): page = urllib.urlopen(url) html = page.read() return html html = getHtml("http://tieba.baidu.com/p/2738151262") print html
Urllib 模塊提供了讀取web頁(yè)面數(shù)據(jù)的接口,我們可以像讀取本地文件一樣讀取www和ftp上的數(shù)據(jù)。首先,我們定義了一個(gè)getHtml()函數(shù):
urllib.urlopen()方法用于打開一個(gè)URL地址。
read()方法用于讀取URL上的數(shù)據(jù),向getHtml()函數(shù)傳遞一個(gè)網(wǎng)址,并把整個(gè)頁(yè)面下載下來(lái)。執(zhí)行程序就會(huì)把整個(gè)網(wǎng)頁(yè)打印輸出。
相關(guān)推薦:
python爬蟲視頻教程
python爬蟲技術(shù)文章
二,篩選頁(yè)面中想要的數(shù)據(jù)
Python 提供了非常強(qiáng)大的正則表達(dá)式,我們需要先要了解一點(diǎn)python 正則表達(dá)式的知識(shí)才行。假如我們百度貼吧找到了幾張漂亮的壁紙,通過(guò)到前段查看工具。找到了圖片的地址,如:src=”http://imgsrc.baidu.com/forum......jpg”pic_ext=”jpeg”
修改代碼如下
import re import urllib def getHtml(url): page = urllib.urlopen(url) html = page.read() return html def getImg(html): reg = r'src="(.+?\.jpg)" pic_ext' imgre = re.compile(reg) imglist = re.findall(imgre,html) return imglist html = getHtml("http://tieba.baidu.com/p/2460150866") print getImg(html)
我們又創(chuàng)建了getImg()函數(shù),用于在獲取的整個(gè)頁(yè)面中篩選需要的圖片連接。re模塊主要包含了正則表達(dá)式:
re.compile() 可以把正則表達(dá)式編譯成一個(gè)正則表達(dá)式對(duì)象.
re.findall() 方法讀取html 中包含 imgre(正則表達(dá)式)的數(shù)據(jù)。
運(yùn)行腳本將得到整個(gè)頁(yè)面中包含圖片的URL地址。
三,將頁(yè)面篩選的數(shù)據(jù)保存到本地
把篩選的圖片地址通過(guò)for循環(huán)遍歷并保存到本地,代碼如下:
#coding=utf-8 import urllib import re def getHtml(url): page = urllib.urlopen(url) html = page.read() return html def getImg(html): reg = r'src="(.+?\.jpg)" pic_ext' imgre = re.compile(reg) imglist = re.findall(imgre,html) x = 0 for imgurl in imglist: urllib.urlretrieve(imgurl,'%s.jpg' % x) x+=1 html = getHtml("http://tieba.baidu.com/p/2460150866") print getImg(html)
這里的核心是用到了urllib.urlretrieve()方法,直接將遠(yuǎn)程數(shù)據(jù)下載到本地。
通過(guò)一個(gè)for循環(huán)對(duì)獲取的圖片連接進(jìn)行遍歷,為了使圖片的文件名看上去更規(guī)范,對(duì)其進(jìn)行重命名,命名規(guī)則通過(guò)x變量加1。保存的位置默認(rèn)為程序的存放目錄。程序運(yùn)行完成,將在目錄下看到下載到本地的文件。
看完了這篇文章,相信你對(duì)用python寫爬蟲的方法有了一定的了解,想了解更多相關(guān)知識(shí),歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道,感謝各位的閱讀!