所謂網(wǎng)頁(yè)抓取,就是把URL地址中指定的網(wǎng)絡(luò)資源從網(wǎng)絡(luò)流中讀取出來(lái),保存到本地。?
按需求定制設(shè)計(jì)可以根據(jù)自己的需求進(jìn)行定制,做網(wǎng)站、成都網(wǎng)站制作構(gòu)思過(guò)程中功能建設(shè)理應(yīng)排到主要部位公司做網(wǎng)站、成都網(wǎng)站制作的運(yùn)用實(shí)際效果公司網(wǎng)站制作網(wǎng)站建立與制做的實(shí)際意義
類(lèi)似于使用程序模擬IE瀏覽器的功能,把URL作為HTTP請(qǐng)求的內(nèi)容發(fā)送到服務(wù)器端, 然后讀取服務(wù)器端的響應(yīng)資源。
在Python中,我們使用urllib2這個(gè)組件來(lái)抓取網(wǎng)頁(yè)。
urllib2是Python的一個(gè)獲取URLs(Uniform Resource Locators)的組件。
它以u(píng)rlopen函數(shù)的形式提供了一個(gè)非常簡(jiǎn)單的接口。
最簡(jiǎn)單的urllib2的應(yīng)用代碼只需要四行。
我們新建一個(gè)文件urllib2_test01.py來(lái)感受一下urllib2的作用:
import urllib2
response = urllib2.urlopen('')
html = response.read()
print html
按下F5可以看到運(yùn)行的結(jié)果:
我們可以打開(kāi)百度主頁(yè),右擊,選擇查看源代碼(火狐OR谷歌瀏覽器均可),會(huì)發(fā)現(xiàn)也是完全一樣的內(nèi)容。
也就是說(shuō),上面這四行代碼將我們?cè)L問(wèn)百度時(shí)瀏覽器收到的代碼們?nèi)看蛴×顺鰜?lái)。
這就是一個(gè)最簡(jiǎn)單的urllib2的例子。
除了"http:",URL同樣可以使用"ftp:","file:"等等來(lái)替代。
HTTP是基于請(qǐng)求和應(yīng)答機(jī)制的:
客戶(hù)端提出請(qǐng)求,服務(wù)端提供應(yīng)答。
urllib2用一個(gè)Request對(duì)象來(lái)映射你提出的HTTP請(qǐng)求。
在它最簡(jiǎn)單的使用形式中你將用你要請(qǐng)求的地址創(chuàng)建一個(gè)Request對(duì)象,
通過(guò)調(diào)用urlopen并傳入Request對(duì)象,將返回一個(gè)相關(guān)請(qǐng)求response對(duì)象,
這個(gè)應(yīng)答對(duì)象如同一個(gè)文件對(duì)象,所以你可以在Response中調(diào)用.read()。
我們新建一個(gè)文件urllib2_test02.py來(lái)感受一下:
import urllib2?
req = urllib2.Request('')?
response = urllib2.urlopen(req)?
the_page = response.read()?
print the_page
可以看到輸出的內(nèi)容和test01是一樣的。
urllib2使用相同的接口處理所有的URL頭。例如你可以像下面那樣創(chuàng)建一個(gè)ftp請(qǐng)求。
req = urllib2.Request('')
在HTTP請(qǐng)求時(shí),允許你做額外的兩件事。
1.發(fā)送data表單數(shù)據(jù)
這個(gè)內(nèi)容相信做過(guò)Web端的都不會(huì)陌生,
有時(shí)候你希望發(fā)送一些數(shù)據(jù)到URL(通常URL與CGI[通用網(wǎng)關(guān)接口]腳本,或其他WEB應(yīng)用程序掛接)。
在HTTP中,這個(gè)經(jīng)常使用熟知的POST請(qǐng)求發(fā)送。
這個(gè)通常在你提交一個(gè)HTML表單時(shí)由你的瀏覽器來(lái)做。
并不是所有的POSTs都來(lái)源于表單,你能夠使用POST提交任意的數(shù)據(jù)到你自己的程序。
一般的HTML表單,data需要編碼成標(biāo)準(zhǔn)形式。然后做為data參數(shù)傳到Request對(duì)象。
編碼工作使用urllib的函數(shù)而非urllib2。
我們新建一個(gè)文件urllib2_test03.py來(lái)感受一下:
import urllib?
import urllib2?
url = ''?
values = {'name' : 'WHY',?
'location' : 'SDU',?
'language' : 'Python' }?
data = urllib.urlencode(values) # 編碼工作
req = urllib2.Request(url, data)? # 發(fā)送請(qǐng)求同時(shí)傳data表單
response = urllib2.urlopen(req)? #接受反饋的信息
the_page = response.read()? #讀取反饋的內(nèi)容
如果沒(méi)有傳送data參數(shù),urllib2使用GET方式的請(qǐng)求。
GET和POST請(qǐng)求的不同之處是POST請(qǐng)求通常有"副作用",
它們會(huì)由于某種途徑改變系統(tǒng)狀態(tài)(例如提交成堆垃圾到你的門(mén)口)。
Data同樣可以通過(guò)在Get請(qǐng)求的URL本身上面編碼來(lái)傳送。
import urllib2?
import urllib
data = {}
data['name'] = 'WHY'?
data['location'] = 'SDU'?
data['language'] = 'Python'
url_values = urllib.urlencode(data)?
print url_values
name=Somebody+Herelanguage=Pythonlocation=Northampton?
url = ''?
full_url = url + '?' + url_values
data = urllib2.open(full_url)
這樣就實(shí)現(xiàn)了Data數(shù)據(jù)的Get傳送。
2.設(shè)置Headers到http請(qǐng)求
有一些站點(diǎn)不喜歡被程序(非人為訪問(wèn))訪問(wèn),或者發(fā)送不同版本的內(nèi)容到不同的瀏覽器。
默認(rèn)的urllib2把自己作為“Python-urllib/x.y”(x和y是Python主版本和次版本號(hào),例如Python-urllib/2.7),
這個(gè)身份可能會(huì)讓站點(diǎn)迷惑,或者干脆不工作。
瀏覽器確認(rèn)自己身份是通過(guò)User-Agent頭,當(dāng)你創(chuàng)建了一個(gè)請(qǐng)求對(duì)象,你可以給他一個(gè)包含頭數(shù)據(jù)的字典。
下面的例子發(fā)送跟上面一樣的內(nèi)容,但把自身模擬成Internet Explorer。
(多謝大家的提醒,現(xiàn)在這個(gè)Demo已經(jīng)不可用了,不過(guò)原理還是那樣的)。
import urllib?
import urllib2?
url = ''
user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'?
values = {'name' : 'WHY',?
'location' : 'SDU',?
'language' : 'Python' }?
headers = { 'User-Agent' : user_agent }?
data = urllib.urlencode(values)?
req = urllib2.Request(url, data, headers)?
response = urllib2.urlopen(req)?
the_page = response.read()
以上就是python利用urllib2通過(guò)指定的URL抓取網(wǎng)頁(yè)內(nèi)容的全部?jī)?nèi)容,非常簡(jiǎn)單吧,希望對(duì)大家能有所幫助。
上周從零學(xué)習(xí)了golang,語(yǔ)法簡(jiǎn)單關(guān)鍵字少,寫(xiě)個(gè)爬蟲(chóng)熟悉一下語(yǔ)法結(jié)構(gòu)。
首先選用了原生的net/http包,基本上涵蓋了所有的get/post請(qǐng)求,各種參數(shù)都可以設(shè)置,網(wǎng)上google到html頁(yè)面解析goquery神器,很輕松就可以解決頁(yè)面解析問(wèn)題。
首先就寫(xiě)了個(gè)爬取匯率的爬蟲(chóng)。然后重寫(xiě)之前php的一個(gè)請(qǐng)求類(lèi),請(qǐng)求類(lèi)的邏輯有點(diǎn)混亂不清晰,往往把兩個(gè)不同的功能合并到一起寫(xiě),粒度大,后來(lái)發(fā)現(xiàn)了一個(gè)好用的框架——colly,之后再試試好不好用
Windows 10 Golang
依賴(lài)包:goquery
較常用的方法有Find和Each
爬取中國(guó)銀行的匯率牌價(jià)表,golang依賴(lài)net/http包和goquery包
唯一的難點(diǎn)是對(duì)于goquery方法的使用,需要閱讀官方文檔:
使用原生的net/http包基本上可以解決大多數(shù)的網(wǎng)頁(yè)請(qǐng)求,使用goquery可以解決頁(yè)面解析問(wèn)題
可以利用golang的協(xié)程特性進(jìn)行異步多協(xié)程爬取
增加安全性可以通過(guò)幾個(gè)方面進(jìn)行改進(jìn):
1.首先可以限制爬蟲(chóng)的爬取速度
2.每次對(duì)網(wǎng)頁(yè)的請(qǐng)求都隨機(jī)選用一個(gè)客戶(hù)端
3.選用IP代理池,防止IP誤封(及限制ip訪問(wèn)次數(shù))
構(gòu)造請(qǐng)求代理ip網(wǎng)站的鏈接→獲取網(wǎng)頁(yè)內(nèi)容→ 提取網(wǎng)頁(yè)中IP地址和端口號(hào)→驗(yàn)證IP的有效性并存儲(chǔ)
輕量級(jí)反爬蟲(chóng)方案
淺談JSP
golang帶json的Http請(qǐng)求
Get/Post
HTTP請(qǐng)求中的Form Data和Request Payload的區(qū)別
HTTP Json請(qǐng)求
net/http:
golang HTTP操作
python建立爬蟲(chóng)代理ip池
爬蟲(chóng)黑科技之讓你的爬蟲(chóng)程序更像人類(lèi)用戶(hù)的行為
特點(diǎn):事件監(jiān)聽(tīng),通過(guò)callback執(zhí)行事件處理
基于colly開(kāi)發(fā)的web管理界面
colly一款快速優(yōu)雅的golang爬蟲(chóng)框架,簡(jiǎn)單易用,功能完備。
官網(wǎng)地址:
包地址: import "github.com/gocolly/colly"
一個(gè)簡(jiǎn)單的例子:
使用方式概括下來(lái)主要有三步:
創(chuàng)建采集器時(shí)可以指定一些配置參數(shù),如useragent,爬取深度及日志等
回調(diào)函數(shù)共有7中
通過(guò)瀏覽器開(kāi)發(fā)者工具查看jianshu.com結(jié)構(gòu)如下
文章列表為ul標(biāo)簽,中間每一項(xiàng)是li標(biāo)簽,li中包含content,content中包含title,abstract和meta標(biāo)簽
Go語(yǔ)言由Google公司開(kāi)發(fā),并于2009年開(kāi)源,相比Java/Python/C等語(yǔ)言,Go尤其擅長(zhǎng)并發(fā)編程,性能堪比C語(yǔ)言,開(kāi)發(fā)效率肩比Python,被譽(yù)為“21世紀(jì)的C語(yǔ)言”。
Go語(yǔ)言在云計(jì)算、大數(shù)據(jù)、微服務(wù)、高并發(fā)領(lǐng)域應(yīng)用應(yīng)用非常廣泛。BAT大廠正在把Go作為新項(xiàng)目開(kāi)發(fā)的首選語(yǔ)言。
Go語(yǔ)言應(yīng)用范圍:
1、服務(wù)端開(kāi)發(fā):以前你使用C或者C++做的那些事情,用Go來(lái)做很合適,例如日志處理、文件系統(tǒng)、監(jiān)控系統(tǒng)等;
2、DevOps:運(yùn)維生態(tài)中的Docker、K8s、prometheus、grafana、open-falcon等都是使用Go語(yǔ)言開(kāi)發(fā);
3、網(wǎng)絡(luò)編程:大量?jī)?yōu)秀的Web框架如Echo、Gin、Iris、beego等,而且Go內(nèi)置的 net/http包十分的優(yōu)秀;
4、Paas云平臺(tái)領(lǐng)域:Kubernetes和Docker Swarm等;
5、分布式存儲(chǔ)領(lǐng)域:etcd、Groupcache、TiDB、Cockroachdb、Influxdb等;
6、區(qū)塊鏈領(lǐng)域:區(qū)塊鏈里面有兩個(gè)明星項(xiàng)目以太坊和fabric都使用Go語(yǔ)言;
7、容器虛擬化:大名鼎鼎的Docker就是使用Go語(yǔ)言實(shí)現(xiàn)的;
8、爬蟲(chóng)及大數(shù)據(jù):Go語(yǔ)言天生支持并發(fā),所以十分適合編寫(xiě)分布式爬蟲(chóng)及大數(shù)據(jù)處理。