這期內(nèi)容當(dāng)中小編將會給大家?guī)碛嘘P(guān)Python能否下載網(wǎng)頁到本地,文章內(nèi)容豐富且以專業(yè)的角度為大家分析和敘述,閱讀完這篇文章希望大家可以有所收獲。
創(chuàng)新互聯(lián)建站專業(yè)IDC數(shù)據(jù)服務(wù)器托管提供商,專業(yè)提供成都服務(wù)器托管,服務(wù)器租用,服務(wù)器托管機(jī)柜,服務(wù)器托管機(jī)柜,成都多線服務(wù)器托管等服務(wù)器托管服務(wù)。
網(wǎng)絡(luò)爬蟲(又被稱為網(wǎng)頁蜘蛛,網(wǎng)絡(luò)機(jī)器人,在FOAF社區(qū)中間,更經(jīng)常的稱為網(wǎng)頁追逐者),是一種按照一定的規(guī)則,自動地抓取萬維網(wǎng)信息的程序或者腳本。
Python爬蟲可以訪問網(wǎng)頁內(nèi)容并獲取其中的值,如何將訪問到的網(wǎng)頁進(jìn)行下載到本地呢?
Python3訪問并下載網(wǎng)頁內(nèi)容的方法:
#!/usr/local/bin/python3.2 import urllib.request,io,os,sys req = urllib.request.Request("http://www.google.com") f = urllib.request.urlopen(req) s = f.read() s = s.decode('gbk','ignore') mdir = sys.path[0]+'/' file = open(mdir+'admin6.txt','a',1,'gbk') file.write(s) file.close()
上述就是小編為大家分享的Python能否下載網(wǎng)頁到本地了,如果剛好有類似的疑惑,不妨參照上述分析進(jìn)行理解。如果想知道更多相關(guān)知識,歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道。