小編給大家分享一下解決python保存數(shù)據(jù)到csv文件中文亂碼的方法,希望大家閱讀完這篇文章后大所收獲,下面讓我們一起去探討吧!
讓客戶滿意是我們工作的目標(biāo),不斷超越客戶的期望值來自于我們對這個(gè)行業(yè)的熱愛。我們立志把好的技術(shù)通過有效、簡單的方式提供給客戶,將通過不懈努力成為客戶在信息化領(lǐng)域值得信任、有價(jià)值的長期合作伙伴,公司提供的服務(wù)項(xiàng)目有:域名與空間、網(wǎng)絡(luò)空間、營銷軟件、網(wǎng)站建設(shè)、東豐網(wǎng)站維護(hù)、網(wǎng)站推廣。
python保存數(shù)據(jù)到csv文件中文亂碼的解決辦法是:1、利用pandas的read_csv函數(shù)將亂碼的表格讀取進(jìn)去;2、利用pandas的to_csv方法將數(shù)據(jù)保存至csv文件并設(shè)置“encoding=utf_8_sig”即可解決。
使用scrapy框架爬取了一些汽車評價(jià)保存在csv文件中,但是直接打開時(shí)亂碼了。
使用pandas讀取再使用to_csv()方法重新保存
import pandas as pd file_name = 'G:/myLearning/pythonML201804/spiderLearning/scrapy_learning/car_comment_crawler/\ car_comment_crawler/spiders/haval_all_page3.csv' file_name2 = 'G:/myLearning/pythonML201804/spiderLearning/scrapy_learning/car_comment_crawler/\ car_comment_crawler/spiders/haval_all_page4.csv' file_name3 = 'G:/myLearning/pythonML201804/spiderLearning/scrapy_learning/car_comment_crawler/\ car_comment_crawler/spiders/haval_all_page5.csv' df = pd.read_csv(file_name, encoding='utf-8') df
(1)使用 df.to_csv(file_name2, encoding='utf-8') 后還是編碼有問題
df.to_csv(file_name2,encoding="utf_8")
(2)使用 df.to_csv(file_name2, encoding='utf_8_sig') 后中文亂碼問題解決了
df.to_csv(file_name3,encoding="utf_8_sig")
看完了這篇文章,相信你對解決python保存數(shù)據(jù)到csv文件中文亂碼的方法有了一定的了解,想了解更多相關(guān)知識,歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道,感謝各位的閱讀!