真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

爬蟲時(shí)IP總是被封該怎么辦

這篇文章將為大家詳細(xì)講解有關(guān)爬蟲時(shí)IP總是被封該怎么辦,文章內(nèi)容質(zhì)量較高,因此小編分享給大家做個(gè)參考,希望大家閱讀完這篇文章后對(duì)相關(guān)知識(shí)有一定的了解。

站在用戶的角度思考問題,與客戶深入溝通,找到乳山網(wǎng)站設(shè)計(jì)與乳山網(wǎng)站推廣的解決方案,憑借多年的經(jīng)驗(yàn),讓設(shè)計(jì)與互聯(lián)網(wǎng)技術(shù)結(jié)合,創(chuàng)造個(gè)性化、用戶體驗(yàn)好的作品,建站類型包括:成都網(wǎng)站設(shè)計(jì)、網(wǎng)站建設(shè)、企業(yè)官網(wǎng)、英文網(wǎng)站、手機(jī)端網(wǎng)站、網(wǎng)站推廣、主機(jī)域名、雅安服務(wù)器托管、企業(yè)郵箱。業(yè)務(wù)覆蓋乳山地區(qū)。

在我抓取網(wǎng)站遇到瓶頸,想劍走偏鋒去解決時(shí),常常會(huì)先去看下該網(wǎng)站的 robots.txt 文件,有時(shí)會(huì)給你打開另一扇抓取之門。

寫爬蟲有很多苦惱的事情,比如:

1.訪問頻次太高被限制;

2.如何大量發(fā)現(xiàn)該網(wǎng)站的 URL;

3.如何抓取一個(gè)網(wǎng)站新產(chǎn)生的 URL,等等;

這些問題都困擾著爬蟲選手,如果有大量離散 IP 和賬號(hào),這些都不是問題,但是絕大部分公司都不具備這個(gè)條件的。

我們?cè)诠ぷ髦袑懙呐老x大多是一次性和臨時(shí)性的任務(wù),需要你快速完成工作就好,當(dāng)遇到上面情況,試著看下 robots.txt 文件。

舉個(gè)栗子:

老板給你布置一個(gè)任務(wù),把豆瓣每天新產(chǎn)生的影評(píng),書評(píng),小組帖子,同城帖子,個(gè)人日志抓取下來。

初想一下,這任務(wù)得有多大,豆瓣有 1.6 億注冊(cè)用戶,光是抓取個(gè)人日志這一項(xiàng)任務(wù),每個(gè)人的主頁你至少每天要訪問一次。

這每天就得訪問 1.6 億次,小組/同城帖子等那些還沒算在內(nèi)。

設(shè)計(jì)一個(gè)常規(guī)爬蟲,靠著那幾十個(gè) IP 是完不成任務(wù)的。

初窺robots.txt

當(dāng)老板給你了上面的任務(wù),靠著你這一兩桿槍,你怎么完成,別給老板講技術(shù),他不懂,他只想要結(jié)果。

我們來看下豆瓣的 robots.txt。

爬蟲時(shí)IP總是被封該怎么辦

看圖片上面紅框處,是兩個(gè) sitemap 文件

打開 sitemap_updated_index 文件看一下:

爬蟲時(shí)IP總是被封該怎么辦

里面是一個(gè)個(gè)壓縮文件,文件里面是豆瓣頭一天新產(chǎn)生的影評(píng),書評(píng),帖子等等,感興趣的可以去打開壓縮文件看一下。

也就是說每天你只需要訪問這個(gè) robots.txt 里的 sitemap 文件就可以知道有哪些新產(chǎn)生的 URL。

不用去遍歷豆瓣網(wǎng)站上那幾億個(gè)鏈接,極大節(jié)約了你的抓取時(shí)間和爬蟲設(shè)計(jì)復(fù)雜度,也降低了豆瓣網(wǎng)站的帶寬消耗,這是雙贏啊,哈哈。

上面通過 robots.txt 的 sitemap 文件找到了抓取一個(gè)網(wǎng)站新產(chǎn)生 URL 的偏方。沿著該思路也能解決發(fā)現(xiàn)網(wǎng)站大量 URL 的問題。

再舉個(gè)栗子:

老板又給你一個(gè)任務(wù),老板說上次抓豆瓣你說要大量 IP 才能搞定抓豆瓣每天新產(chǎn)生的帖子,這次給你 1000 個(gè) IP  把天眼查上的幾千萬家企業(yè)工商信息抓取下來。

看著這么多 IP 你正留著口水,但是分析網(wǎng)站后發(fā)現(xiàn)這類網(wǎng)站的抓取入口很少(抓取入口是指頻道頁,聚合了很多鏈接的那種頁面)。

很容易就把儲(chǔ)備的 URL 抓完了,干看著這么多 IP 工作不飽滿。

如果一次性能找到這個(gè)網(wǎng)站幾萬乃至幾十萬個(gè) URL 放進(jìn)待抓隊(duì)列里,就可以讓這么多 IP 工作飽滿起來,不會(huì)偷懶了。

我們來看他的robots.txt文件:

爬蟲時(shí)IP總是被封該怎么辦

爬蟲時(shí)IP總是被封該怎么辦

打開紅框處的 sitemap,里面有 3 萬個(gè)公司的 URL,上圖是 1 月 3 號(hào)生成的,那個(gè)URL 是根據(jù)年月日生成的,你把 URL 改成 1 月 2  號(hào),又能看到 2 號(hào)的sitemap里的幾萬個(gè)公司 URL,這樣就能發(fā)現(xiàn)十幾萬個(gè)種子 URL 供你抓取了。

PS:上面的 sitemap 其實(shí)也能解決抓取天眼查最近更新的,新產(chǎn)生 URL 的問題。

小小的一個(gè)取巧,既降低了爬蟲設(shè)計(jì)的復(fù)雜度,又降低了對(duì)方的帶寬消耗。

關(guān)于爬蟲時(shí)IP總是被封該怎么辦就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,可以學(xué)到更多知識(shí)。如果覺得文章不錯(cuò),可以把它分享出去讓更多的人看到。


分享題目:爬蟲時(shí)IP總是被封該怎么辦
路徑分享:http://weahome.cn/article/pcooeo.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部