小白也能看懂的Pandas实操演示教程(下)
收藏

点击上方AI派”,选择“设为星标
最新分享,第一时间送达!

作者:奔雷手,目前是名在校学生,当前主要在学习机器学习,也在做机器学习方面的助教,相对还是比较了解初学者学习过程的需求和问题,希望通过这个专栏能够广结好友,共同成长。 

编辑:王老湿

我们的《机器学习入坑指南》专栏发布后,目前已经更新了三篇:
1. 上手机器学习前,先来学习下Python相关的环境配置吧~
2. 小白也可以看懂的Numpy实操演示教程
3. 小白也能看懂的Pandas实操演示教程(上)

今天的是第四篇,主要带大家来实操学习下Pandas,因为篇幅原因,分为了两部分,本篇为下。上篇内容见:小白也能看懂的Pandas实操演示教程(上)

5 pandas实现SQL操作

pandas实现对数据的增删改查

增:添加新行或增加新列

dict={'Name':['LiuShunxiang','Zhangshan'],
    'Sex':['M','F'],
    'Age':[27,23],
    'Height':[165.7,167.2],
    'weight':[61,63]}
print(dict)
student1=pd.DataFrame(dict)
print(student1)

dict={'Name':['Liu','Zhang'],
    'Sex':['M','F'],
    'Age':[27,23],
    'Height':[165.7,167.2],
    'weight':[61,63]}
student2=pd.DataFrame(dict)
{'Name': ['LiuShunxiang''Zhangshan'], 'Sex': ['M''F'], 'Age': [2723], 'Height': [165.7167.2], 'weight': [6163]}
   Age  Height          Name Sex  weight
0   27   165.7  LiuShunxiang   M      61
1   23   167.2     Zhangshan   F      63

将student2中的数据新增到student1中,可以通过concat函数实现,concat函数对index无视

student3=pd.concat([student1,student2],ignore_index='Ture'
student3

添加新列---增加的新列没有赋值,就会出现NAN的形式

pd.DataFrame(student2,columns=['Age','Heught','Name','Sex','weight','Score'])

删:删除表、观测行或变量列

删除整个数据框

del student2
student2
---------------------------------------------------------------------------

NameError                                 Traceback (most recent call last)

<ipython-input-61-dbecb61e032f> in <module>()
----> 1 student2


NameError: name 'student2' is not defined

删除指定行

student3.drop([0])

删除25岁以上的学生

student3[student3['Age']<25]

删除指定的列

student3.drop(['Height','weight'],axis=1)

不论删除行还是列,都可以通过drop方法实现,只需要设定好删除的轴即可,即调整drop方法中的axis参数。默认参数为0,即删除行观测数据,如果需要删除列变量,则需要设置为1.

改:修改原始记录的值

如果发现表中的数据错了,如何更改原来的值呢?尝试结合布尔索引和赋值的方法

student3

假设需要修改liu学生的身高为173

student3.loc[student3['Name']=='Liu','Height']=173
student3

查:类似上边的数据查询部分

聚合:groupby()

student3.groupby('Sex').mean()

多个分组变量,例如根据年龄和性别分组,计算身高和体重的平均值

student3.groupby(['Sex','Age']).mean()

对每个分组计算多个统计量

student3.drop('Age',axis=1).groupby('Sex').agg([np.mean,np.median])

排序:sort_values

series=pd.Series(np.array(np.random.randint(1,20,10)))
series
0     3
1    13
2    13
3    17
4     5
5    15
6    17
7    15
8     4
9    16
dtype: int32

默认按值升序排列

series.sort_values()
0     3
8     4
4     5
1    13
2    13
5    15
7    15
9    16
3    17
6    17
dtype: int32

按降序排列

series.sort_values(ascending=False)  
6    17
3    17
9    16
7    15
5    15
2    13
1    13
4     5
8     4
0     3
dtype: int32

数据框中按值排列

student3.sort_values(by=['Sex','Age'])

多表链接-merge

dict2={'Name':['Alfred','Alice','Barbara','Carol','Henry','Jeffrey','Judy','Philip','Robert','william'],
      'Score':[88,76,89,67,79,90,92,86,73,77]}
score=pd.DataFrame(dict2)
score

student3['Name']=['Alfred','Alice','Barbara','Carol']
student3

把学生表和成绩表做一个关联,默认情况下实现的是两个表之间的内连接,即返回两张表中共同部分的数据

stu_score1=pd.merge(student3,score,on='Name'
stu_score1

stu_score1=pd.merge(student3,score,on='Name',how='inner'
stu_score1

使用how参数设置连接的方式,left为左连接,right为右连接,outer为外连接

stu_score2=pd.merge(student3,score,on='Name',how='left')  
stu_score2

保留score表中的所有信息,同时将student3表的信息与之配对,能配多少配多少,对于没有配上的score,将会显示Nan

stu_score3=pd.merge(student3,score,on='Name',how='right')  
stu_score3

stu_score4=pd.merge(student3,score,on='Name',how='outer')  
stu_score4

6 对缺失值的处理

现实中的数据存在很多噪音的同时,缺失值也非常的常见。缺失值的存在会影响后期的数据分析或挖掘工作,那么缺失值的处理有哪些方法呢?

6.1 删除法

当数据中某个变量大部分值都会缺失值时,可以考虑删除该变量; 
当缺失值时随机分布的,且缺失的数量并不是很多时,可以删除这些缺失的观测; 
默认情况下,dropna会删除任何含有缺失值的行,  构造个数据框

df=pd.DataFrame([[1,1,2],[3,5,np.nan],[13,21,34],[55,np.nan,10],
                [np.nan,np.nan,np.nan],[np.nan,1,2]],columns=['x1','x2','x3'])
df

df.dropna()

只删除所有行为缺失值的观测

df=pd.DataFrame([[1,1,2],[3,5,np.nan],[13,21,34],[55,np.nan,10],
                [np.nan,np.nan,np.nan],[np.nan,1,2]],columns=['x1','x2','x3'])
df.dropna(how='all')  

删除有行为缺失值的观测,

df=pd.DataFrame([[1,1,2],[3,5,np.nan],[13,21,34],[55,np.nan,10],
                [np.nan,np.nan,np.nan],[np.nan,1,2]],columns=['x1','x2','x3'])
df.dropna(how='any')

删除全为nan的那些列

df=pd.DataFrame([[1,1,2,np.nan],[3,5,np.nan,np.nan],[13,21,34,np.nan],[55,np.nan,10,np.nan],
                [np.nan,np.nan,np.nan,np.nan],[np.nan,1,2,np.nan]],columns=['x1','x2','x3','x4'])
print(df)
df.dropna(how='all',axis=1
     x1    x2    x3  x4
0   1.0   1.0   2.0 NaN
1   3.0   5.0   NaN NaN
2  13.0  21.0  34.0 NaN
3  55.0   NaN  10.0 NaN
4   NaN   NaN   NaN NaN
5   NaN   1.0   2.0 NaN

利用thresh,保留一些为nan的值

行方向上至少有3个非NAN的项保留

df=pd.DataFrame([[1,1,2,np.nan],[3,5,np.nan,np.nan],[13,21,34,np.nan],[55,np.nan,10,np.nan],
                [np.nan,np.nan,np.nan,np.nan],[np.nan,1,2,np.nan]],columns=['x1','x2','x3','x4'])
df.dropna(thresh=3

df=pd.DataFrame([[1,1,2,np.nan],[3,5,np.nan,np.nan],[13,21,34,np.nan],[55,np.nan,10,np.nan],
                [np.nan,np.nan,np.nan,np.nan],[np.nan,1,2,np.nan]],columns=['x1','x2','x3','x4'])
df.dropna(thresh=1

在列方向上至少保留有3个非NAN的项保留

df=pd.DataFrame([[1,1,2,np.nan],[3,5,np.nan,np.nan],[13,21,34,np.nan],[55,np.nan,10,np.nan],
                [np.nan,np.nan,np.nan,np.nan],[np.nan,1,2,np.nan]],columns=['x1','x2','x3','x4'])
df.dropna(thresh=3,axis=1)

6.2  替补法

对于连续变量,如果变量的分布近似或就是正态分布的话,可以用均值替代那些缺失值; 
如果变量是有偏的,可以使用中位数来代替那些缺失值; 
对于离散型变量,一般使用众数去替换那些存在缺失的预测;

fillna函数的参数:

value:用于填充缺失值的标量值或者字典对象  
method:插值方式,如果函数调用时,未指定其他参数的话默认值fill  
axis:待填充的轴默认值axis=0  
inplace:修改调用这对象而不产生副本  
limit:(对于前向和后项填充)可以连续填充的最大数量

使用一个常量来填补缺失值,可以使用fillna函数实现简单的填补工作

1.用0填补所有缺失值

df.fillna(0)

2.采用前项填充或后项填充,用一个观测值填充

df.fillna(method='ffill')  

用后一个观测值填充--这样会导致最后边的无法填充Nan

df.fillna(method='bfill'

3.使用常量填充不同的列

df.fillna({'x1':1,'x2':2,'x3':3})

4.使用均值或中位数填充各自的列

x1_median=df['x1'].median()
x2_mean=df['x2'].mean()
x3_mean=df['x3'].mean()
print(x1_median,x2_mean,x3_mean)
8.0 7.0 12.0
df.fillna({'x1':x1_median,'x2':x2_mean,'x3':x3_mean})

使用填充法时,相对于常数填充或者前项、后项填充,使用各列众数,均值或中位数填充要更加合理些,这也是工作中常用的一个快捷手段。

7 实现excel的数据透视表功能

pivot_table(data,values=None,index=None,columns=None,aggfunc='mean',
          fill_value=None,margins=False,dropna=True,margins_name='All')

data:需要进行数据透视表操作的数据框
values:指定需要聚合的字段
index:指定某些原始变量作为行索引
columns:指定哪些离散的分组变量
aggfunc:指定相应的聚合函数
fill_value:使用一个常数替代缺失值,默认不替换
margins:是否进行行或列的汇总,默认不汇总
dropna:默认所有观测为缺失的列
margins_name:默认行汇总或列汇总的名称为‘ALL’

test_data.head()

marital作为分组变量,balance作为数值变量做统计汇总

pd.pivot_table(test_data,values=['balance'],columns=['marital'])

marital作为1个分组变量,balance,housing作为两个数值变量做统计汇总

pd.pivot_table(test_data,values=['balance','housing'],columns=['marital'])

marital,job作为2个分组变量,balance作为1个数值变量做统计汇总

pd.pivot_table(test_data,values=['balance','housing'],columns=['marital','job'])
         marital  job
balance  1        1      1228.493671
                  2      1785.391272
                  3      2353.951501
                  4       845.000000
                  5      1243.956701
                  6       977.805556
                  7      1364.432602
                  8      1243.585938
                  9      1579.081081
                  10     1952.578544
                  11     1270.040984
                  12     1749.975000
         2        1      1355.333333
                  2      1501.268148
                  3      1890.900000
                  4      1205.809322
                  5      1438.189147
                  6       878.873606
                  7      1236.768448
                  8      1047.812500
                  9      1716.306931
                  10     1367.694737
                  11     2158.580000
                  12      814.833333
         3        1      1166.673913
                  2      1801.176471
                  3      1454.990196
                  4      2946.000000
                  5       962.784141
                  6       940.809917
                            ...     
housing  1        7         1.601881
                  8         1.725361
                  9         1.459459
                  10        1.475096
                  11        1.573770
                  12        1.000000
         2        1         1.393939
                  2         1.482963
                  3         1.300000
                  4         1.241525
                  5         1.533333
                  6         1.676580
                  7         1.587786
                  8         1.708333
                  9         1.257426
                  10        1.452632
                  11        1.540000
                  12        1.055556
         3        1         1.239130
                  2         1.533088
                  3         1.235294
                  4         1.000000
                  5         1.550661
                  6         1.628099
                  7         1.657609
                  8         1.705521
                  9         1.513514
                  10        1.457143
                  11        1.571429
                  12        1.500000
Length: 72, dtypefloat64

marital,job作为2个分组变量,balance,housing作为两个数值变量做统计汇总

pd.pivot_table(test_data,values=['balance','housing'],columns=['marital','job'])
         marital  job
balance  1        1      1228.493671
                  2      1785.391272
                  3      2353.951501
                  4       845.000000
                  5      1243.956701
                  6       977.805556
                  7      1364.432602
                  8      1243.585938
                  9      1579.081081
                  10     1952.578544
                  11     1270.040984
                  12     1749.975000
         2        1      1355.333333
                  2      1501.268148
                  3      1890.900000
                  4      1205.809322
                  5      1438.189147
                  6       878.873606
                  7      1236.768448
                  8      1047.812500
                  9      1716.306931
                  10     1367.694737
                  11     2158.580000
                  12      814.833333
         3        1      1166.673913
                  2      1801.176471
                  3      1454.990196
                  4      2946.000000
                  5       962.784141
                  6       940.809917
                            ...     
housing  1        7         1.601881
                  8         1.725361
                  9         1.459459
                  10        1.475096
                  11        1.573770
                  12        1.000000
         2        1         1.393939
                  2         1.482963
                  3         1.300000
                  4         1.241525
                  5         1.533333
                  6         1.676580
                  7         1.587786
                  8         1.708333
                  9         1.257426
                  10        1.452632
                  11        1.540000
                  12        1.055556
         3        1         1.239130
                  2         1.533088
                  3         1.235294
                  4         1.000000
                  5         1.550661
                  6         1.628099
                  7         1.657609
                  8         1.705521
                  9         1.513514
                  10        1.457143
                  11        1.571429
                  12        1.500000
Length: 72, dtypefloat64

很显然,这样的结果并不想Excel中预期的那样,该如何变成列联表的形式呢?很简单,只需将结果进行非堆叠操作即可。

pd.pivot_table(test_data,values=['balance','housing'],columns=['marital','job']).unstack()

这样的结果看起来更舒服一些

使用多个聚合函数

pd.pivot_table(test_data,values=['balance','housing'],columns=['marital'],
               aggfunc=[np.mean,np.median,np.std])

8 多层索引的使用

接下再讲一个Pandas中的重要功能,那就是多层索引。 
序列的多层索引类似于Excel中如下形式。

Series的多层索引

s=pd.Series([1,2,3,4],index=[['小张','小张','老王','老王'],
                            ['期中','期末','期中','期末']])
s
小张  期中    1
     期末    2
老王  期中    3
     期末    4
dtype: int64

取回最外层索引为‘小张’的所有数据

s[['小张']] 
小张  期中    1
     期末    2
dtype: int64

取回最内层所有为‘期中’的数据

s[:,'期中']
小张    1
老王    3
dtype: int64

将多层次索引的序列转换为数据框的形式

s.unstack()

期中期末
小张12
老王34

以上是对序列的多层次索引,接下来将对数据框的多层次索引,多层索引的形式类似excel中的如下形式。

构造一个类似的高维数据框

df=pd.DataFrame(np.random.randint(10,50,20).reshape(5,4),
               index=[['A','A','A','B','B'],[1,2,3,1,2]],
               columns=[['x','x','x','y'],['x1','x2','x3','y']])
df

通过外层索引取出大块数据

df['x']

df.loc[['A'],:]

在数据框中使用多层索引,可以将整个数据集控制在二维表结构中,这对于数据重塑和基于分组的操作(如数据透视表的生成)比较有帮助。以test_data二维数据框为例,构造一个多层索引数据集。

pd.pivot_table(test_data,index=['marital','loan'])

以上pandas模块的基本学习就完成了。大家如果有问题欢迎大家可以在我们的机器学习专栏群里来讨论。还没有加入的同学可以扫描下方的微信二维码,添加微信好友,之后统一邀请你加入交流群。添加好友时一定要备注:机器学习。 

/ 每日赠书专区 /


为了回馈一直以来支持我们的读者,“每日赠书专区”会每天从留言支持我们的读者中选择一名最脸熟的读者来赠予实体书籍(包邮),当前通过这种方式我们已赠送出 40 本书籍。

1.脸熟的评判标准是根据通过留言的次数来决定的

2.留言时需要按照今日留言主题来用心留言,否则不计入总数

3.每日赠书专区会出现在AI派当天发布文章的头条或次条的文章末尾


如果不理解头条/次条的含义的读者可看下面的图。



今天我们的每日赠书专区出现在“”的位置上书籍为Python大规模机器学习

本书简介:

本书不仅介绍大规模机器学习的基本概念,还包含丰富的案例研究。书中所选皆为*实用的技术和工具,而对理论细节不进行深入讨论,旨在提供大规模机器学习方法(甚至非常规方法)。不管是初学者、普通用户还是专家级用户,通过本书都能理解并掌握利用Python进行大规模机器学习。为让读者快速掌握核心技术,本书由浅入深讲解大量实例,图文并茂呈现每一步的操作结果,帮助读者更好地掌握大规模机器学习Python工具。

👆↑↑点击上方小程序即可购买

恭喜上期通过留言成功混脸熟的读者:YuGuii,赠送一本《Python数据分析与数据化运营

请中奖同学联系小编:wanglaoshi201907


/ 今日留言主题 /

你在Linux上做过最牛逼的操作是什么?rm -rf / ? 😂


近期专栏推荐


1. 算法原理稳如狗,工程落地慌得很!AI炼丹炉实践指南来啦~

2. 从0到1,数据分析师修炼之路

3. "王老湿,我。。我想学那个。。爬虫。可以嘛"

4. 想学机器学习吗?带坑的那种


点下「在看」,给文章盖个戳吧!👇