filter就是按條件篩選:
創(chuàng)新互聯(lián)建站是一家專業(yè)提供岳普湖企業(yè)網(wǎng)站建設,專注與成都網(wǎng)站設計、做網(wǎng)站、H5網(wǎng)站設計、小程序制作等業(yè)務。10年已為岳普湖眾多企業(yè)、政府機構等服務。創(chuàng)新互聯(lián)專業(yè)網(wǎng)站設計公司優(yōu)惠進行中。
filter(bool,['spam','','ni'])
list(filter(bool,[''spam,'','ni']))
輸出的結(jié)果為['spam','ni']
#按照bool型篩選,因為中間的‘’,為空,不是bool型所以過濾掉。
伴隨著大數(shù)據(jù)時代的到來,Python的熱度居高不下,已成為職場人士必備的技能,它不僅可以從事網(wǎng)絡爬蟲、人工智能、Web開發(fā)、游戲開發(fā)等工作,還是數(shù)據(jù)分析的首選語言。那么問題來了,利用Python數(shù)據(jù)分析可以做什么呢?簡單來講,可以做的事情有很多,具體如下。
第一、檢查數(shù)據(jù)表
Python中使用shape函數(shù)來查看數(shù)據(jù)表的維度,也就是行數(shù)和列數(shù)。你可以使用info函數(shù)查看數(shù)據(jù)表的整體信息,使用dtypes函數(shù)來返回數(shù)據(jù)格式。Lsnull是Python中檢查空置的函數(shù),你可以對整個數(shù)據(jù)進行檢查,也可以單獨對某一列進行空置檢查,返回的結(jié)果是邏輯值,包括空置返回True,不包含則返回False。使用unique函數(shù)查看唯一值,使用Values函數(shù)用來查看數(shù)據(jù)表中的數(shù)值。
第二,數(shù)據(jù)表清洗
Python中處理空值的方法比較靈活,可以使用Dropna函數(shù)用來刪除數(shù)據(jù)表中包括空值的數(shù)據(jù),也可以使用fillna函數(shù)對空值進行填充。Python中dtype是查看數(shù)據(jù)格式的函數(shù),與之對應的是asstype函數(shù),用來更改數(shù)據(jù)格式,Rename是更改名稱的函數(shù),drop_duplicate函數(shù)函數(shù)重復值,replace函數(shù)實現(xiàn)數(shù)據(jù)轉(zhuǎn)換。
第三,數(shù)據(jù)預處理
數(shù)據(jù)預處理是對清洗完的數(shù)據(jù)進行整理以便后期統(tǒng)計和分析工作,主要包括數(shù)據(jù)表的合并、排序、數(shù)值分列、數(shù)據(jù)分組以及標記等工作。在Python中可以使用merge函數(shù)對兩個數(shù)據(jù)表進行合并,合并的方式為inner,此外還有l(wèi)eft、right和outer方式。使用ort_values函數(shù)和sort_index函數(shù)完成排序,使用where函數(shù)完成數(shù)據(jù)分組,使用split函數(shù)實現(xiàn)分列。
第四,數(shù)據(jù)提取
主要是使用三個函數(shù):loc、iloc和ix,其中l(wèi)oc函數(shù)按標準值進行提取,iloc按位置進行提取,ix可以同時按標簽和位置進行提取。除了按標簽和位置提取數(shù)據(jù)意外,還可以按照具體的條件進行提取。
第五,數(shù)據(jù)篩選匯總
Python中使用loc函數(shù)配合篩選條件來完成篩選功能,配合sum和count函數(shù)還能實現(xiàn)Excel中sumif和countif函數(shù)的功能。Python中使用的主要函數(shù)是groupby和pivot_table。
file1_path ='E:/Users/lenovo/Desktop/中視/622召回.csv' # 源數(shù)據(jù)
格式:file1=pd.read_csv(file1_path)
pd.read_csv(file1_path,encoding='gbk')
pd.read_csv(file1_path,encoding='gbk',skiprows=[2,3])
pd.read_csv(file1_path,encoding='gbk',skiprows=lambda x:x%2==1)
pd.read_csv(file1_path,encoding='gbk',keep_default_na=False)
new=pd.DataFrame()
new.new[[0,1,2]]
new.new[0:2]
查詢結(jié)果同上
new.loc[new['激活數(shù)']1000]
loc和iloc的區(qū)別:
loc:純標簽篩選
iloc:純數(shù)字篩選
#篩選出new的某兩列
new=new.loc[:,['phone','收件人姓名']]
#篩選new的第0,1列
new.iloc[:,[0,1]]
使用‘==’篩選-篩查“崔旭”的人(只能篩查指定明確的)
#new=file1.loc[(file1['收件人姓名']=='崔旭')|(file1['收件人姓名']=='崔霞')]
#print(new)
#使用loc函數(shù)篩選-str.contains函數(shù)-篩查名字中包含'亮'和'海'的人
#new=file1.loc[file1['收件人姓名'].str.contains('亮|海')]
#print(new)
#使用loc函數(shù)篩選-str.contains函數(shù)-篩查'崔'姓的人
#new=file1.loc[file1['收件人姓名'].str.startswitch('崔')]
#print(new)
df = df[(df['DEPOSIT_PAY_TIME_x'] .notnull() ) (df['DEPOSIT_PAY_TIME_x'] != "" )]
print("during_time(number)=0的個數(shù):",newdata[newdata['during_time(number)'] ==0].count()['during_time(number)'])
print("during_time(number)=1,2,3的個數(shù):",newdata[(newdata['during_time(number)'] 0) (newdata['during_time(number)'] 4)].count()['during_time(number)'])
print(newdata[newdata['during_time(number)'] ==0])
newdata[newdata['Team']. isin (['England','Italy','Russia'])][['Team','Shooting Accuracy']]
df.年齡.value_counts()
1.修改指定位置數(shù)據(jù)的值(修改第0行,’創(chuàng)建訂單數(shù)‘列的值為3836)
new.loc[0,'創(chuàng)建訂單數(shù)']=3836
2.替換‘小明’-‘xiaoming’
df.replace({'name':{'小明':'xiaoming'}})
3.批量替換某一列的值(把‘性別’列里的男-male,女-felmale)
方法一:df['性別']=df['性別'].map({'男':'male','女':'female'})
方法二:df['性別'].replace('female','女',inplace=True)
? ? ? ? ? ?或df['性別']=df['性別'].replace('female','女')? ? ? ? ? ? ? ? 這就是inplace的作用
? ? ? ? ? ? +df['性別'].replace('male','男',inplace=True)
4.替換列索引
df.columns=['sex','name','height','age']
或者:df.rename(columns={'性別':'sex','姓名':'name','身高':'height','年齡':'age'})
5.刪除某一列
del df['player']
6. 刪除某一列(方法二),刪除某一行(默認axis=0刪除行,為1則刪除列)
刪除某一列(方法二)
df.drop('性別',axis=1)
刪除某一行
df.drop(1,axis=0)
file1=pd.read_csv(file1_path)
file2=pd.read_csv(file2_path)
new1=pd.DataFrame()
new1['phone']=file1['phone']
new1['contact_time']=file1['contact_time']
new2=pd.DataFrame()
new2['phone']=file2['phone']
new2['submission_audit_time']=file2['提交審核時間']
newdata=pd.merge(new1,new2,on='phone',how='left')
df=pd.concat([df1,df2],axis=0)
4.2.2 橫向表連接
df=pd.concat([df1,df2],axis=1)
df1['地區(qū)'].str.split('·',3,expand=True)
df1:
df1[['城市', '城區(qū)','地址']] = df1['地區(qū)'].str.split('·', 3, expand = True)
5.1 缺失值刪除
data.dropna(axis=0,subset = ["Age", "Sex"]) ? # 丟棄‘Age’和‘Sex’這兩列中有缺失值的行
data.dropna(how = 'all') ? ?# 傳入這個參數(shù)后將只丟棄全為缺失值的那些行
data.dropna(axis = 1) ? ? ? # 丟棄有缺失值的列(一般不會這么做,這樣會刪掉一個特征)
data.dropna(axis=1,how="all") ? # 丟棄全為缺失值的那些列
5.2 缺失值填充:pandas.DataFrame.fillna()函數(shù)
DataFrame.fillna(value=None, method=None, axis=None, inplace=False, limit=None, downcast=None, **kwargs)
功能:使用指定方法填充NA/NaN值
其中inplace=True就是直接在原有基礎上填滿
5.3 缺失值查詢:
缺失值數(shù)量查詢:df.isnull().sum()
缺失值行查詢:df[df.isnull().T.any()]
newdata['during_time']=pd.to_datetime(newdata['submission_audit_time'])-pd.to_datetime(newdata['contact_time'])
newdata['during_time(number)']=(pd.to_datetime(newdata['submission_audit_time'])-pd.to_datetime(newdata['contact_time'])).apply(lambda x: x.days)
new=pd.DataFrame()
new=newdata[newdata['during_time(number)'] ==0]
new.to_csv(save_path,encoding='utf-8-sig')
將數(shù)據(jù)按行拆分并存儲到不同的csv文件中:
path='C:/Users/EDZ/Desktop/工作/2021.08.19/'
for i in range(0,30):
df.loc[[i]].to_csv(path+str(i)+'.csv',encoding='gbk')
df = df[['購藥日期', '星期','社??ㄌ?,'商品編碼', '商品名稱', '銷售數(shù)量', '應收金額', '實收金額' ]]