python寫入html文件時(shí)出現(xiàn)亂碼怎么解決?針對這個(gè)問題,這篇文章詳細(xì)介紹了相對應(yīng)的分析和解答,希望可以幫助更多想解決這個(gè)問題的小伙伴找到更簡單易行的方法。
為遼源等地區(qū)用戶提供了全套網(wǎng)頁設(shè)計(jì)制作服務(wù),及遼源網(wǎng)站建設(shè)行業(yè)解決方案。主營業(yè)務(wù)為網(wǎng)站設(shè)計(jì)制作、網(wǎng)站設(shè)計(jì)、遼源網(wǎng)站設(shè)計(jì),以傳統(tǒng)方式定制建設(shè)網(wǎng)站,并提供域名空間備案等一條龍服務(wù),秉承以專業(yè)、用心的態(tài)度為用戶提供真誠的服務(wù)。我們深信只要達(dá)到每一位用戶的要求,就會(huì)得到認(rèn)可,從而選擇與我們長期合作。這樣,我們也可以走得更遠(yuǎn)!
使用open函數(shù)將爬蟲爬取的html寫入文件,有時(shí)候在控制臺(tái)不會(huì)亂碼,但是寫入文件的html中的中文是亂碼的
案例分析
看下面一段代碼:
# 爬蟲未使用cookiefrom urllib import requestif __name__ == '__main__': url = "http://www.renren.com/967487029/profile" rsp = request.urlopen(url) html = rsp.read().decode() with open("rsp.html","w")as f: # 將爬取的頁面 print(html) f.write(html)
看似沒有問題,并且在控制臺(tái)輸出的html也不會(huì)出現(xiàn)中文亂碼,但是創(chuàng)建的html文件中
解決方案
使用open方法的一個(gè)參數(shù),名為encoding=” “,加入encoding=”utf-8”即可
# 爬蟲未使用cookiefrom urllib import requestif __name__ == '__main__': url = "http://www.renren.com/967487029/profile" rsp = request.urlopen(url) html = rsp.read().decode() with open("rsp.html","w",encoding="utf-8")as f: # 將爬取的頁面 print(html) f.write(html)
運(yùn)行結(jié)果
關(guān)于python寫入html文件時(shí)出現(xiàn)亂碼怎么解決問題的解答就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道了解更多相關(guān)知識(shí)。