真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

Python3網(wǎng)絡(luò)爬蟲實(shí)戰(zhàn)-11、爬蟲框架的安裝:ScrapySplash、ScrapyRedis

ScrapySplash的安裝

ScrapySplash 是一個 Scrapy 中支持 JavaScript 渲染的工具,本節(jié)來介紹一下它的安裝方式。
ScrapySplash 的安裝分為兩部分,一個是是 Splash 服務(wù)的安裝,安裝方式是通過 Docker,安裝之后會啟動一個 Splash 服務(wù),我們可以通過它的接口來實(shí)現(xiàn) JavaScript 頁面的加載。另外一個是 ScrapySplash 的 Python 庫的安裝,安裝之后即可在 Scrapy 中使用 Splash 服務(wù)。

創(chuàng)新互聯(lián)公司是專業(yè)的方正網(wǎng)站建設(shè)公司,方正接單;提供成都網(wǎng)站制作、成都網(wǎng)站設(shè)計(jì)、外貿(mào)營銷網(wǎng)站建設(shè),網(wǎng)頁設(shè)計(jì),網(wǎng)站設(shè)計(jì),建網(wǎng)站,PHP網(wǎng)站建設(shè)等專業(yè)做網(wǎng)站服務(wù);采用PHP框架,可快速的進(jìn)行方正網(wǎng)站開發(fā)網(wǎng)頁制作和功能擴(kuò)展;專業(yè)做搜索引擎喜愛的網(wǎng)站,專業(yè)的做網(wǎng)站團(tuán)隊(duì),希望更多企業(yè)前來合作!

1. 相關(guān)鏈接

  • GitHub:https://github.com/scrapy-plu...
  • PyPi:https://pypi.python.org/pypi/...
  • 使用說明:https://github.com/scrapy-plu...
  • Splash 官方文檔:http://splash.readthedocs.io

2. 安裝Splash

ScrapySplash 會使用 Splash 的 HTTP API 進(jìn)行頁面渲染,所以我們需要安裝 Splash 來提供渲染服務(wù),安裝是通過 Docker 安裝,在這之前請確保已經(jīng)正確安裝好了 Docker。
安裝命令如下:

docker?run -p?8050:8050?scrapinghub/splash

安裝完成之后會有類似的輸出結(jié)果:

2017-07-03 08:53:28+0000 [-] Log opened.
2017-07-03 08:53:28.447291 [-] Splash version: 3.0
2017-07-03 08:53:28.452698 [-] Qt 5.9.1, PyQt 5.9, WebKit 602.1, sip 4.19.3, Twisted 16.1.1, Lua 5.2
2017-07-03 08:53:28.453120 [-] Python 3.5.2 (default, Nov 17 2016, 17:05:23) [GCC 5.4.0 20160609]
2017-07-03 08:53:28.453676 [-] Open files limit: 1048576
2017-07-03 08:53:28.454258 [-] Can't bump open files limit
2017-07-03 08:53:28.571306 [-] Xvfb is started: ['Xvfb', ':1599197258', '-screen', '0', '1024x768x24', '-nolisten', 'tcp']
QStandardPaths: XDG_RUNTIME_DIR not set, defaulting to '/tmp/runtime-root'
2017-07-03 08:53:29.041973 [-] proxy profiles support is enabled, proxy profiles path: /etc/splash/proxy-profiles
2017-07-03 08:53:29.315445 [-] verbosity=1
2017-07-03 08:53:29.315629 [-] slots=50
2017-07-03 08:53:29.315712 [-] argument_cache_max_entries=500
2017-07-03 08:53:29.316564 [-] Web UI: enabled, Lua: enabled (sandbox: enabled)
2017-07-03 08:53:29.317614 [-] Site starting on 8050
2017-07-03 08:53:29.317801 [-] Starting factory <twisted.web.server.Site object at 0x7ffaa4a98cf8>
Python資源分享qun 784758214 ,內(nèi)有安裝包,PDF,學(xué)習(xí)視頻,這里是Python學(xué)習(xí)者的聚集地,零基礎(chǔ),進(jìn)階,都?xì)g迎

這樣就證明 Splash 已經(jīng)在 8050 端口上運(yùn)行了。
這時我們打開:http://localhost:8050 即可看到 Splash 的主頁,如圖 1-81 所示:

Python3網(wǎng)絡(luò)爬蟲實(shí)戰(zhàn)-11、爬蟲框架的安裝:ScrapySplash、ScrapyRedis

圖 1-81 運(yùn)行頁面
當(dāng)然 Splash 也可以直接安裝在遠(yuǎn)程服務(wù)器上,我們在服務(wù)器上運(yùn)行以守護(hù)態(tài)運(yùn)行 Splash 即可,命令如下:

docker?run -d -p?8050:8050?scrapinghub/splash

在這里多了一個 -d 參數(shù),它代表將 Docker 容器以守護(hù)態(tài)運(yùn)行,這樣在中斷遠(yuǎn)程服務(wù)器連接后不會終止 Splash 服務(wù)的運(yùn)行。

3. ScrapySplash的安裝

成功安裝了 Splash 之后,我們接下來再來安裝一下其 Python 庫,安裝命令如下:

pip3?install?scrapy-splash

命令運(yùn)行完畢后就會成功安裝好此庫,后文我們會介紹它的詳細(xì)用法。

Scrapyredis的安裝

ScrapyRedis 是 Scrapy 分布式的擴(kuò)展模塊,有了它我們可以方便地實(shí)現(xiàn) Scrapy 分布式爬蟲的搭建,本節(jié)來介紹一下 ScrapyRedis 的安裝方式。

1. 相關(guān)鏈接

  • GitHub:https://github.com/rmax/scrap...
  • PyPi:https://pypi.python.org/pypi/...
  • 官方文檔:http://scrapy-redis.readthedo...

2. Pip安裝

推薦使用 Pip 安裝,命令如下:

pip3?install?scrapy-redis

3. 測試安裝

安裝完成之后,可以在 Python 命令行下測試。

$ python3
>>> import scrapy_redis
Python資源分享qun 784758214 ,內(nèi)有安裝包,PDF,學(xué)習(xí)視頻,這里是Python學(xué)習(xí)者的聚集地,零基礎(chǔ),進(jìn)階,都?xì)g迎

如果沒有錯誤報出,則證明庫已經(jīng)安裝好了。


分享文章:Python3網(wǎng)絡(luò)爬蟲實(shí)戰(zhàn)-11、爬蟲框架的安裝:ScrapySplash、ScrapyRedis
瀏覽地址:http://weahome.cn/article/poiosd.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部