Python3爬蟲利器Scrapyd API如何安裝?這個問題可能是我們?nèi)粘W習或工作經(jīng)常見到的。希望通過這個問題能讓你收獲頗深。下面是小編給大家?guī)淼膮⒖純?nèi)容,讓我們一起來看看吧!
創(chuàng)新互聯(lián)建站專業(yè)為企業(yè)提供諸城網(wǎng)站建設(shè)、諸城做網(wǎng)站、諸城網(wǎng)站設(shè)計、諸城網(wǎng)站制作等企業(yè)網(wǎng)站建設(shè)、網(wǎng)頁設(shè)計與制作、諸城企業(yè)網(wǎng)站模板建站服務(wù),10年諸城做網(wǎng)站經(jīng)驗,不只是建網(wǎng)站,更提供有價值的思路和整體網(wǎng)絡(luò)服務(wù)。
安裝好了Scrapyd之后,我們可以直接請求它提供的API來獲取當前主機的Scrapy任務(wù)運行狀況。比如,某臺主機的IP為192.168.1.1,則可以直接運行如下命令獲取當前主機的所有Scrapy項目:
curl http://localhost:6800/listprojects.json
運行結(jié)果如下:
{"status": "ok", "projects": ["myproject", "otherproject"]}
返回結(jié)果是JSON字符串,通過解析這個字符串,便可以得到當前主機的所有項目。
但是用這種方式來獲取任務(wù)狀態(tài)還是有點煩瑣,所以Scrapyd API就為它做了一層封裝,下面我們來看下它的安裝方式。
1. 相關(guān)鏈接
GitHub:https://pypi.python.org/pypi/python-scrapyd-api/
PyPI:https://pypi.python.org/pypi/python-scrapyd-api
官方文檔:http://python-scrapyd-api.readthedocs.io/en/latest/usage.html
2. pip安裝
這里推薦使用pip安裝,命令如下:
pip install python-scrapyd-api
3. 驗證安裝
安裝完成之后,便可以使用Python來獲取主機狀態(tài)了,所以上面的操作便可以用Python代碼實現(xiàn):
from scrapyd_api import ScrapydAPI scrapyd = ScrapydAPI('http://localhost:6800') print(scrapyd.list_projects())
運行結(jié)果如下:
["myproject", "otherproject"]
這樣我們便可以用Python直接來獲取各個主機上Scrapy任務(wù)的運行狀態(tài)了。
感謝各位的閱讀!看完上述內(nèi)容,你們對Python3爬蟲利器Scrapyd API如何安裝大概了解了嗎?希望文章內(nèi)容對大家有所幫助。如果想了解更多相關(guān)文章內(nèi)容,歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道。