這篇文章主要為大家展示了“如何解決python爬蟲中有中文的url問題”,內(nèi)容簡而易懂,條理清晰,希望能夠幫助大家解決疑惑,下面讓小編帶領(lǐng)大家一起研究并學(xué)習(xí)一下“如何解決python爬蟲中有中文的url問題”這篇文章吧。
創(chuàng)新互聯(lián)建站專注于網(wǎng)站建設(shè),為客戶提供成都網(wǎng)站建設(shè)、網(wǎng)站設(shè)計、網(wǎng)頁設(shè)計開發(fā)服務(wù),多年建網(wǎng)站服務(wù)經(jīng)驗,各類網(wǎng)站都可以開發(fā),高端網(wǎng)站設(shè)計,公司官網(wǎng),公司展示網(wǎng)站,網(wǎng)站設(shè)計,建網(wǎng)站費用,建網(wǎng)站多少錢,價格優(yōu)惠,收費合理。如果URL中存在中文,而你卻不對它做任何處理,他不會達到你所想的那樣,因此我們需要將中文部分進行處理,要用到urllib.parse模塊中的quote將中文轉(zhuǎn)化成URL所需的編碼,url中的中文要單獨處理,不能中英文全部合在一起處理(因為一部分的特殊字符也會被處理掉)。
import urllib.parse word='龍' word=urllib.parse.quote(word) url='https://baike.baidu.com/search/word?word=%s'%word print(url)
運行結(jié)果為:
以上是“如何解決python爬蟲中有中文的url問題”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對大家有所幫助,如果還想學(xué)習(xí)更多知識,歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道!