但要學(xué)習(xí)好爬蟲并沒有那么簡單。首先知識點(diǎn)和方向?qū)嵲谑翘嗔?,它關(guān)系到了計(jì)算機(jī)網(wǎng)絡(luò)、編程基礎(chǔ)、前端開發(fā)、后端開發(fā)、App 開發(fā)與逆向、網(wǎng)絡(luò)安全、數(shù)據(jù)庫、運(yùn)維、機(jī)器學(xué)習(xí)、數(shù)據(jù)分析等各個方向的內(nèi)容,它像一張大網(wǎng)一樣把現(xiàn)在一些主流的技術(shù)棧都連接在了一起。正因?yàn)楹w的方向多,因此學(xué)習(xí)的東西也非常零散和雜亂,很多初學(xué)者搞不清楚究竟要學(xué)習(xí)哪些知識,學(xué)習(xí)過程中遇到反爬也不知道用什么方法來解決,本篇我們來做一些歸納和總結(jié)。
成都創(chuàng)新互聯(lián)公司是一家專業(yè)提供翔安企業(yè)網(wǎng)站建設(shè),專注與成都網(wǎng)站建設(shè)、網(wǎng)站設(shè)計(jì)、H5頁面制作、小程序制作等業(yè)務(wù)。10年已為翔安眾多企業(yè)、政府機(jī)構(gòu)等服務(wù)。創(chuàng)新互聯(lián)專業(yè)網(wǎng)站建設(shè)公司優(yōu)惠進(jìn)行中。
初學(xué)爬蟲
一些最基本的網(wǎng)站,往往不帶任何反爬措施。比如某個博客站點(diǎn),我們要爬全站的話就順著列表頁爬到文章頁,再把文章的時(shí)間、作者、正文等信息爬下來就可以了。
那代碼怎么寫呢?用 Python 的 requests 等庫就夠了,寫一個基本的邏輯,順著把一篇篇文章的源碼獲取下來,解析的話用 XPath、BeautifulSoup、PyQuery 或者正則表達(dá)式,或者粗暴的字符串匹配把想要的內(nèi)容摳出來,再加個文本寫入存下來就完事了。
代碼很簡單,就幾個方法調(diào)用。邏輯很簡單,幾個循環(huán)加存儲。最后就能看到一篇篇文章就被我們存到自己的電腦里面了。當(dāng)然有的同學(xué)可能不太會寫代碼或者都懶得寫,那么利用基本的可視化爬取工具,如某爪魚、某裔采集器也能通過可視化點(diǎn)選的方式把數(shù)據(jù)爬下來。
如果存儲方面稍微擴(kuò)展一下的話,可以對接上 MySQL、MongoDB、Elasticsearch、Kafka 等等來保存數(shù)據(jù),實(shí)現(xiàn)持久化存儲。以后查詢或者操作會更方便。
反正,不管效率如何,一個完全沒有反爬的網(wǎng)站用最最基本的方式就搞定了。
到這里,你就說你會爬蟲了嗎?不,還差的遠(yuǎn)呢。
Ajax、動態(tài)渲染
隨著互聯(lián)網(wǎng)的發(fā)展,前端技術(shù)也在不斷變化,數(shù)據(jù)的加載方式也不再是單純的服務(wù)端渲染了?,F(xiàn)在你可以看到很多網(wǎng)站的數(shù)據(jù)可能都是通過接口的形式傳輸?shù)?,或者即使不是接口那也是一?JSON 的數(shù)據(jù),然后經(jīng)過 JavaScript 渲染得出來的。
這時(shí)候,你要再用 requests 來爬那就不頂用了,因?yàn)?requests 爬下來的源碼是服務(wù)端渲染得到的,瀏覽器看到頁面的和 requests 獲取的結(jié)果是不一樣的。真正的數(shù)據(jù)是經(jīng)過 JavaScript 執(zhí)行的出來的,數(shù)據(jù)來源可能是 Ajax,也可能是頁面里的某些 Data,也可能是一些 ifame 頁面等等,不過大多數(shù)情況下可能是 Ajax 接口獲取的。
所以很多情況下需要分析 Ajax,知道這些接口的調(diào)用方式之后再用程序來模擬。但是有些接口帶著加密參數(shù),比如 token、sign 等等,又不好模擬,咋整呢?
一種方法就是去分析網(wǎng)站的 JavaScript 邏輯,死摳里面的代碼,揪出來這些參數(shù)是怎么構(gòu)造的,找出思路來了之后再用爬蟲模擬或重寫就行了。如果你解出來了,那么直接模擬的方式效率會高非常多,這里面就需要一些 JavaScript 基礎(chǔ)了,當(dāng)然有些網(wǎng)站加密邏輯做的太牛逼了,你可能花一個星期也解不出來,最后放棄了。
那這樣解不出來或者不想解,那咋辦呢?這時(shí)候可以有一種簡單粗暴的方法就是直接用模擬瀏覽器的方式來爬取,比如用 Puppeteer、Pyppeteer、Selenium、Splash 等,這樣爬取到的源代碼就是真正的網(wǎng)頁代碼,數(shù)據(jù)自然就好提取了,同時(shí)也就繞過分析 Ajax 和一些 JavaScript 邏輯的過程。這種方式就做到了可見即可爬,難度也不大,同時(shí)模擬了瀏覽器,也不太會有一些法律方面的問題。
但其實(shí)后面的這種方法也會遇到各種反爬的情況,現(xiàn)在很多網(wǎng)站都會去識別 webdriver,看到你是用的 Selenium 等工具,直接干掉或不返回?cái)?shù)據(jù),所以你碰到這種網(wǎng)站還得來專門解一下這個問題。
多進(jìn)程、多線程、協(xié)程
上面的情況如果用單線程的爬蟲來模擬是比較簡單的,但是有個問題就是速度慢啊。
爬蟲是 IO 密集型的任務(wù),所以可能大多數(shù)情況下都在等待網(wǎng)絡(luò)的響應(yīng),如果網(wǎng)絡(luò)響應(yīng)速度慢,那就得一直等著。但這個空余的時(shí)間其實(shí)可以讓 CPU 去做更多事情。那怎么辦呢?多開點(diǎn)線程吧。
所以這時(shí)候我們就可以在某些場景下加上多進(jìn)程、多線程,雖然說多線程有 GIL 鎖,但對于爬蟲來說其實(shí)影響沒那么大,所以用上多進(jìn)程、多線程都可以成倍地提高爬取速度,對應(yīng)的庫就有 threading、multiprocessing 了。
異步協(xié)程就更牛逼了,用 aiohttp、gevent、tornado 等等的基本上你想搞多少并發(fā)就搞多少并發(fā),但是還是悠著點(diǎn),別把人家網(wǎng)站搞掛了。
總之,用上這幾個,爬蟲速度就提上來了。
但速度提上來了不一定是好事,反爬接著肯定就要來了,封你 IP、封你賬號、彈驗(yàn)證碼、返回假數(shù)據(jù),所以有時(shí)候龜速爬似乎也是個解決辦法?
分布式
多線程、多進(jìn)程、協(xié)程都能加速,但終究還是單機(jī)的爬蟲。要真正做到規(guī)模化,還得來靠分布式爬蟲來搞。
分布式的核心是什么?資源共享。比如爬取隊(duì)列共享、去重指紋共享等等。
我們可以使用一些基礎(chǔ)的隊(duì)列或組件來實(shí)現(xiàn)分布式,比如 RabbitMQ、Celery、Kafka、redis 等等,但經(jīng)過很多人的嘗試,自己去實(shí)現(xiàn)一個分布式爬蟲,性能和擴(kuò)展性總會出現(xiàn)一些問題,當(dāng)然特別牛逼的除外哈。不少企業(yè)內(nèi)部其實(shí)也有自己開發(fā)的一套分布式爬蟲,和業(yè)務(wù)更緊密,這種當(dāng)然是最好了。
現(xiàn)在主流的 Python 分布式爬蟲還是基于 Scrapy 的,對接 Scrapy-Redis、Scrapy-Redis-BloomFilter 或者用 Scrapy-Cluster 等等,他們都是基于 Redis 來共享爬取隊(duì)列的,總會多多少少遇到一些內(nèi)存的問題。所以一些人也考慮對接到了其他的消息隊(duì)列上面,比如 RabbitMQ、Kafka 等等,解決一些問題,效率也不差。
總之,要提高爬取效率,分布式還是必須要掌握的。
驗(yàn)證碼
爬蟲難免遇到反爬,驗(yàn)證碼就是其中之一。要會反爬,那首先就要會解驗(yàn)證碼。
現(xiàn)在你可以看到很多網(wǎng)站都會有各種各樣的驗(yàn)證碼了,比如最簡單的圖形驗(yàn)證碼,要是驗(yàn)證碼的文字規(guī)整的話,OCR 過一遍或者基本的模型庫都能識別,不想搞這個的話可以直接去對接個打碼平臺來搞,準(zhǔn)確率還是有的。
然而你可能現(xiàn)在都見不到什么圖形驗(yàn)證碼了,都是一些行為驗(yàn)證碼,如某驗(yàn)、某盾等等,國外也有很多,比如 reCaptcha 等等。一些稍微簡單一點(diǎn)的,比如滑動的,你可以找點(diǎn)辦法識別缺口,比如圖像處理比對、深度學(xué)習(xí)識別都是可以的。軌跡呢自己寫個模擬正常人行為的,加點(diǎn)抖動之類的。有了軌跡之后咋模擬呢,如果你牛逼,那么可以直接去分析驗(yàn)證碼的 JavaScript 邏輯,把軌跡數(shù)據(jù)錄入,那就能得到里面的一些加密參數(shù),直接拿著這些參數(shù)放到表單或接口里面就能直接用了。當(dāng)然也可以用模擬瀏覽器的方式來拖動,也能通過一定的方式拿到加密參數(shù),或者直接用模擬瀏覽器的方式把登錄一起做了,拿著 Cookies 來爬也行。
當(dāng)然拖動只是一種驗(yàn)證碼,還有文字點(diǎn)選、邏輯推理等,要是真不想搞,可以找打碼平臺來解出來再模擬,但畢竟花錢的,一些高手就會選擇自己訓(xùn)練深度學(xué)習(xí)相關(guān)的模型,收集數(shù)據(jù)、標(biāo)注、訓(xùn)練,針對不同的業(yè)務(wù)訓(xùn)練不同的模型。這樣有了核心技術(shù),也不用再去花錢找打碼平臺了,再研究下驗(yàn)證碼的邏輯模擬一下,加密參數(shù)就能解出來了。不過有的驗(yàn)證碼難得很,有的我也沒搞定。
當(dāng)然有些驗(yàn)證碼可能是請求過于頻繁而彈出來的,這種如果換個 IP 什么的也能解。
封 IP
封 IP 也是個令人頭疼的事,行之有效的方法就是換代理了。
代理很多種,市面上免費(fèi)的,收費(fèi)的太多太多了。
首先可以把市面上免費(fèi)的代理用起來,自己搭建一個代理池,收集現(xiàn)在全網(wǎng)所有的免費(fèi)代理,然后加一個測試器一直不斷測試,測試的網(wǎng)址可以改成你要爬的網(wǎng)址。這樣測試通過的一般都能直接拿來爬你的目標(biāo)網(wǎng)站。我自己也搭建過一個代理池,現(xiàn)在對接了一些免費(fèi)代理,定時(shí)爬、定時(shí)測,還寫了個 API 來取,放在 GitHub 了:https://github.com/Python3WebSpider/ProxyPool,打好了 Docker 鏡像,提供了 Kubernetes 腳本,大家可以直接拿來用。
付費(fèi)代理也是一樣,很多商家提供了代理提取接口,請求一下就能獲取幾十幾百個代理,我們可以同樣把它們接入到代理池里面。但這個代理也分各種套餐,什么開放代理、獨(dú)享代理等等的質(zhì)量和被封的幾率也是不一樣的。
有的商家還利用隧道技術(shù)搭了代理,這樣代理的地址和端口我們是不知道的,代理池是由他們來維護(hù)的,比如某布云,這樣用起來更省心一些,但是可控性就差一些。
還有更穩(wěn)定的代理,比如撥號代理、蜂窩代理等等,接入成本會高一些,但是一定程度上也能解決一些封 IP 的問題。
不過這些背后也不簡單,為啥一個好好的高匿代理就是莫名其妙爬不了,背后的一些事就不多講了。
##封賬號
有些信息需要模擬登錄才能爬嘛,如果爬的過快,人家網(wǎng)站直接把你的賬號封禁了,就啥都沒得說了。比如爬公眾號的,人家把你 WX 號封了,那就全完了。
一種解決方法當(dāng)然就是放慢頻率,控制下節(jié)奏。
還有種方法就是看看別的終端,比如手機(jī)頁、App 頁、wap 頁,看看有沒有能繞過登錄的法子。
另外比較好的方法,那就是分流。如果你號足夠多,建一個池子,比如 Cookies 池、Token 池、Sign 池反正不管什么池吧,多個賬號跑出來的 Cookies、Token 都放到這個池子里面,用的時(shí)候隨機(jī)從里面拿一個。如果你想保證爬取效率不變,那么 100 個賬號相比 20 個賬號,對于每個賬號對應(yīng)的 Cookies、Token 的取用頻率就變成原來的了 1/5,那么被封的概率也就隨之降低了。
奇葩的反爬
上面說的是幾種比較主流的反爬,當(dāng)然還有非常多奇葩的反爬。比如返回假數(shù)據(jù)、返回圖片化數(shù)據(jù)、返回亂序數(shù)據(jù)、返回罵人的數(shù)據(jù)、返回求饒的數(shù)據(jù),那都具體情況看著辦吧。
這些反爬也得小心點(diǎn),之前見過一個反爬直接返回 rm -rf /
的也不是沒有,你要是正好有個腳本模擬執(zhí)行返回結(jié)果,后果自己想象哈。
JavaScript 逆向
說到重頭了。隨著前端技術(shù)的進(jìn)步和網(wǎng)站反爬意識的增強(qiáng),很多網(wǎng)站選擇在前端上下功夫,那就是在前端對一些邏輯或代碼進(jìn)行加密或混淆。當(dāng)然這不僅僅是為了保護(hù)前端的代碼不被輕易盜取,更重要的是反爬。比如很多 Ajax 接口都會帶著一些參數(shù),比如 sign、token 等等,這些前文也講過了。這種數(shù)據(jù)我們可以用前文所說的 Selenium 等方式來爬,但總歸來說效率太低了,畢竟它模擬的是網(wǎng)頁渲染的整個過程,而真實(shí)的數(shù)據(jù)可能僅僅就藏在一個小接口里。
如果我們能夠把一些接口的參數(shù)真正找出其中的邏輯,用代碼來模擬執(zhí)行,那效率就會有成倍的提升,而且還能在一定程度上規(guī)避上述的反爬現(xiàn)象。
但問題是什么?難啊。
Webpack 是一方面,前端代碼都被壓縮和轉(zhuǎn)碼成一些 bundle 文件,一些變量的含義已經(jīng)丟失,不好還原。然后一些網(wǎng)站再加上一些 obfuscator 的機(jī)制,把前端代碼變成你完全看不懂的東西,比如字符串拆散打亂、變量十六進(jìn)制化、控制流扁平化、無限 debug、控制臺禁用等等,前端的代碼和邏輯已經(jīng)面目全非。有的用 WebAssembly 等技術(shù)把前端核心邏輯直接編譯,那就只能慢慢摳了,雖然說有些有一定的技巧,但是總歸來說還是會花費(fèi)很多時(shí)間。但一旦解出來了,那就萬事大吉了。怎么說?就像奧賽題一樣,解出來升天,解不出來 GG。
很多公司招聘爬蟲工程師都會問有沒有 JavaScript 逆向基礎(chǔ),破解過哪些網(wǎng)站,比如某寶、某多、某條等等,解出來某個他們需要的可能就直接錄用你。每家網(wǎng)站的邏輯都不一樣,難度也不一樣。
App
當(dāng)然爬蟲不僅僅是網(wǎng)頁爬蟲了,隨著互聯(lián)網(wǎng)時(shí)代的發(fā)展,現(xiàn)在越來越多的公司都選擇將數(shù)據(jù)放到 App 上面,甚至有些公司只有 App 沒有網(wǎng)站。所以數(shù)據(jù)只能通過 App 來爬。
咋爬呢?基本的就是抓包工具了,Charles、Fiddler 一把梭,抓到接口之后,直接拿來模擬就行了。
如果接口有加密參數(shù)怎么辦呢?一種方法你可以邊爬邊處理,比如 mitmproxy 直接監(jiān)聽接口數(shù)據(jù)。另一方面你可以走 Hook,比如上 Xposed 也可以拿到。
那爬的時(shí)候又怎么實(shí)現(xiàn)自動化呢?總不能拿手來戳吧。其實(shí)工具也多,安卓原生的 adb 工具也行,Appium 現(xiàn)在已經(jīng)是比較主流的方案了,當(dāng)然還有其他的某精靈都是可以實(shí)現(xiàn)的。
最后,有的時(shí)候可能真的就不想走自動化的流程,我就想把里面的一些接口邏輯摳出來,那就得搞逆向了,IDA Pro、jdax、FRIDA 等工具就派上用場了,當(dāng)然這個過程和 JavaScript 逆向一樣很痛苦,甚至可能得讀匯編指令。搞一個案例掉一把頭發(fā)也不是不可能的。
智能化
上面的這一通,都搞熟了,恭喜你已經(jīng)超過了百分之八九十的爬蟲玩家了,當(dāng)然專門搞 JavaScript 逆向、App 逆向的都是站在食物鏈頂端的男人,這種嚴(yán)格來說已經(jīng)不算爬蟲范疇了,這種神我們就不算在里面了,反正我不是。
除了上面的一些技能,在一些場合下,我們可能也需要結(jié)合一些機(jī)器學(xué)習(xí)的技術(shù),讓我們的爬蟲變得更智能起來。
比如現(xiàn)在很多博客、新聞文章,其頁面結(jié)構(gòu)相似度比較高,要提取的信息也比較類似。
比如如何區(qū)分一個頁面是索引頁還是詳情頁?如何提取詳情頁的文章鏈接?如何解析文章頁的頁面內(nèi)容?這些其實(shí)都是可以通過一些算法來計(jì)算出來的。
所以,一些智能解析技術(shù)也營運(yùn)而生,比如提取詳情頁,一位朋友寫的 GeneralNewsExtractor 表現(xiàn)就非常好。
假如說我來了一個需求,我要爬取一萬個新聞網(wǎng)站數(shù)據(jù),要一個個寫 XPath 嗎?寫死我吧。如果有了智能化解析技術(shù),在容忍一定錯誤的條件下,完成這個就是分分鐘的事情。
總之,如果我們能把這一塊也學(xué)會了,我們的爬蟲技術(shù)就會如虎添翼。
運(yùn)維
這塊也是一個重頭戲。爬蟲和運(yùn)維也是息息相關(guān)。
比如寫完一個爬蟲,怎樣去快速部署到 100 臺主機(jī)上跑起來。
比如怎么靈活地監(jiān)控每個爬蟲的運(yùn)行狀態(tài)。
比如爬蟲有處代碼改動,如何去快速更新。
比如怎樣監(jiān)控一些爬蟲的占用內(nèi)存、消耗的 CPU 狀況。
比如怎樣科學(xué)地控制爬蟲的定時(shí)運(yùn)行、
比如爬蟲出現(xiàn)了問題,怎樣能及時(shí)收到通知,怎樣設(shè)置科學(xué)的報(bào)警機(jī)制。
這里面,部署大家各有各的方法,比如用 Ansible 當(dāng)然可以。如果用 Scrapy 的話有 Scrapyd,然后配合上一些管理工具也能完成一些監(jiān)控和定時(shí)任務(wù)。不過我現(xiàn)在用的更多是還是 Docker + Kubernetes,再加上 DevOps 一套,比如 GitHub Actions、Azure Pipelines、Jenkins 等等,快速實(shí)現(xiàn)分發(fā)和部署。
定時(shí)任務(wù)大家有的用 crontab,有的用 apscheduler,有的用管理工具,有的用 Kubernetes,我的話用 Kubernetes 就多一些了,定時(shí)任務(wù)也是很好實(shí)現(xiàn)。
至于監(jiān)控的話,也有很多,專門的一些爬蟲管理工具自帶了一些監(jiān)控和報(bào)警功能。一些云服務(wù)也帶了一些監(jiān)控的功能。我用的是 Kubernetes + Prometheus + Grafana,什么 CPU、內(nèi)存、運(yùn)行狀態(tài),一目了然,報(bào)警機(jī)制在 Grafana 里面配一下也很方便,支持 Webhook、郵件甚至某釘。
數(shù)據(jù)的存儲和監(jiān)控,用 Kafka、Elasticsearch 個人感覺也挺方便的,我主要用的是后者,然后再和 Grafana 配合起來,數(shù)據(jù)爬取量、爬取速度等等監(jiān)控也都一目了然。
結(jié)語
至此,爬蟲的一些涵蓋的知識點(diǎn)也就差不多了,怎么樣,梳理一下,是不是計(jì)算機(jī)網(wǎng)絡(luò)、編程基礎(chǔ)、前端開發(fā)、后端開發(fā)、App 開發(fā)與逆向、網(wǎng)絡(luò)安全、數(shù)據(jù)庫、運(yùn)維、機(jī)器學(xué)習(xí)都涵蓋到了?上面總結(jié)的可以算是從爬蟲小白到爬蟲高手的路徑了,里面每個方向其實(shí)可研究的點(diǎn)非常多,每個點(diǎn)做精了,都會非常了不起。
爬蟲往往學(xué)著學(xué)著,就成為了一名全棧工程師或者全干工程師,因?yàn)槟憧赡苷娴纳抖紩恕5菦]辦法啊,都是被爬蟲逼的啊,如果不是生活所困,誰愿意一身才華呢?
然而有了才華之后呢?摸摸頭頂,臥槽,我的頭發(fā)呢?
嗯,大家都懂的。
最后最重要的,珍愛生命、珍愛每一根頭發(fā)。