0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

数据处理中pandas的groupby小技巧

数据分析与开发 来源:Python数据科学 作者:东哥起飞 2021-04-09 11:34 次阅读

pandas的groupby是数据处理中一个非常强大的功能。虽然很多同学已已经非常熟悉了,但有些小技巧还是要和大家普及一下的。为了给大家演示,我们采用一个公开的数据集进行说明。

import pandas as pd

iris = pd.read_csv

随机采样5条,数据是长这样子的。

》》》 iris.sample(5)

sepal_length sepal_width petal_length petal_width species

95 5.7 3.0 4.2 1.2 versicolor

71 6.1 2.8 4.0 1.3 versicolor

133 6.3 2.8 5.1 1.5 virginica

4 5.0 3.6 1.4 0.2 setosa

33 5.5 4.2 1.4 0.2 setosa

因为是分组功能,所以被分的对象肯定是类别型的。在这个数据里,这里我们就以species进行分组举例。

首先,以species分组创建一个groupby的object。这里单独生成groupby对象是因为后面会反复用到,其实用的熟练了直接链接起来就可以了。

iris_gb = iris.groupby(‘species’)

一、创建频率表假如我想知道每个species类中的数量有多少,那么直接使用groupby的size函数即可,如下。

》》》 iris_gb.size()

species

setosa 50

versicolor 50

virginica 50

dtype: int64

二、计算常用的描述统计量比如,我想要按组计算均值,那么就用mean()函数。

》》》 # 计算均值

》》》 iris_gb.mean()

sepal_length sepal_width petal_length petal_width

species

setosa 5.006 3.428 1.462 0.246

versicolor 5.936 2.770 4.260 1.326

virginica 6.588 2.974 5.552 2.026

默认情况下如果没有限制,那么mean()函数将对所有变量特征计算均值。如果我希望只计算某一个变量的均值,可以指定该变量,如下所示。

》》》 # 单列

》》》 iris_gb[‘sepal_length’].mean()

species

setosa 5.006

versicolor 5.936

virginica 6.588

Name: sepal_length, dtype: float64

》》》 # 双列

》》》 iris_gb[[‘sepal_length’, ‘petal_length’]].mean()

sepal_length petal_length

species

setosa 5.006 1.462

versicolor 5.936 4.260

virginica 6.588 5.552

同理,其它描述性统计量min、max()、medianhe和std都是一样的用法。

三、查找最大值(最小值)索引如果我们要查找每个组的最大值或最小值的索引时,有一个方便的功能可以直接使用。

》》》 iris_gb.idxmax()

sepal_length sepal_width petal_length petal_width

species

setosa 14 15 24 43

versicolor 50 85 83 70

virginica 131 117 118 100

如何应用呢?

比如我们想查找每组sepal_length最大值对应的整条记录时,就可以这样用。注意,这里是整条记录,相当于按sepal_length最大值这个条件进行了筛选。

》》》 sepal_largest = iris.loc[iris_gb[‘sepal_length’].idxmax()]

》》》 sepal_largest

sepal_length sepal_width petal_length petal_width species

14 5.8 4.0 1.2 0.2 setosa

50 7.0 3.2 4.7 1.4 versicolor

131 7.9 3.8 6.4 2.0 virginica

四、Groupby之后重置索引很多时候,我们在groupby处理后还要进行其他操作。也就是说,我们想重置分组索引以使其成为正常的行和列。

第一种方法可能大家常用,就是通过reset_index()让乱序索引重置。

》》》 iris_gb.max().reset_index()

species sepal_length sepal_width petal_length petal_width

0 setosa 5.8 4.4 1.9 0.6

1 versicolor 7.0 3.4 5.1 1.8

2 virginica 7.9 3.8 6.9 2.5

但其实,还有一个看上去更加友好的用法。可以在groupby的时候就设置as_index参数,也可以达到同样效果。

》》》 iris.groupby(‘species’, as_index=False).max()

species sepal_length sepal_width petal_length petal_width

0 setosa 5.8 4.4 1.9 0.6

1 versicolor 7.0 3.4 5.1 1.8

2 virginica 7.9 3.8 6.9 2.5

五、多种统计量汇总上面都是单个统计量的操作,那如果我想同时操作好几个呢?

groupby还有一个超级棒的用法就是和聚合函数agg连起来使用。

》》》 iris_gb[[‘sepal_length’, ‘petal_length’]].agg([“min”, “mean”])

sepal_length petal_length

min mean min mean

species

setosa 4.3 5.006 1.0 1.462

versicolor 4.9 5.936 3.0 4.260

virginica 4.9 6.588 4.5 5.552

在agg里面,我们只要列出统计量的名称即可,便可同时对每个列进行多维度统计。

六、特定列的聚合我们也看到了,上面是的多个操作对于每个列都是一样的。实际使用过程中,我们可能对于每个列的需求都是不一样的。

所以在这种情况下,我们可以通过为不同的列单独设置不同的统计量。

》》》 iris_gb.agg({“sepal_length”: [“min”, “max”], “petal_length”: [“mean”, “std”]})

sepal_length petal_length

min max mean std

species

setosa 4.3 5.8 1.462 0.173664

versicolor 4.9 7.0 4.260 0.469911

virginica 4.9 7.9 5.552 0.551895

7、NamedAgg命名统计量现在我又有新的想法了。上面的多级索引看起来有点不太友好,我想把每个列下面的统计量和列名分别合并起来。可以使用NamedAgg来完成列的命名。

》》》 iris_gb.agg(

。。. sepal_min=pd.NamedAgg(column=“sepal_length”, aggfunc=“min”),

。。. sepal_max=pd.NamedAgg(column=“sepal_length”, aggfunc=“max”),

。。. petal_mean=pd.NamedAgg(column=“petal_length”, aggfunc=“mean”),

。。. petal_std=pd.NamedAgg(column=“petal_length”, aggfunc=“std”)

。。. )

sepal_min sepal_max petal_mean petal_std

species

setosa 4.3 5.8 1.462 0.173664

versicolor 4.9 7.0 4.260 0.469911

virginica 4.9 7.9 5.552 0.551895

因为NamedAgg是一个元组,所以我们也可以直接赋值元组给新的命名,效果一样,但看上去更简洁。

iris_gb.agg(

sepal_min=(“sepal_length”, “min”),

sepal_max=(“sepal_length”, “max”),

petal_mean=(“petal_length”, “mean”),

petal_std=(“petal_length”, “std”)

八、使用自定义函数上面agg聚合函数中我们都是通过添加一个统计量名称来完成操作的,除此之外我们也可直接给一个功能对象。

》》》 iris_gb.agg(pd.Series.mean)

sepal_length sepal_width petal_length petal_width

species

setosa 5.006 3.428 1.462 0.246

versicolor 5.936 2.770 4.260 1.326

virginica 6.588 2.974 5.552 2.026

不仅如此,名称和功能对象也可一起使用。

iris_gb.agg([“min”, pd.Series.mean])

更骚的是,我们还可以自定义函数,也都是可以的。

》》》 def double_length(x):

。。. return 2*x.mean()

。。.

》》》 iris_gb.agg(double_length)

sepal_length sepal_width petal_length petal_width

species

setosa 10.012 6.856 2.924 0.492

versicolor 11.872 5.540 8.520 2.652

virginica 13.176 5.948 11.104 4.052

当然如果想更简洁,也可以使用lambda函数。总之,用法非常灵活,可以自由组合搭配。

iris_gb.agg(lambda x: x.mean())

以上就是使用groupby过程中可能会用到的8个操作,如果你熟练使用起来会发现这个功能是真的很强大。

原文标题:Pandas 100 个骚操作:groupby 8 个常用技巧!

文章出处:【微信公众号:数据分析与开发】欢迎添加关注!文章转载请注明出处。

责任编辑:haq

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 函数
    +关注

    关注

    3

    文章

    4333

    浏览量

    62709
  • 数据处理
    +关注

    关注

    0

    文章

    602

    浏览量

    28584

原文标题:Pandas 100 个骚操作:groupby 8 个常用技巧!

文章出处:【微信号:DBDevs,微信公众号:数据分析与开发】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    康谋分享 | 如何应对ADAS/AD海量数据处理挑战?

    如何有效处理ADAS/AD海量数据并从中获得见解?IVEX数据处理流程可自动从原始传感器数据等输入识别出值得关注的事件和场景,推动
    的头像 发表于 12-25 10:05 2118次阅读
    康谋分享 | 如何应对ADAS/AD海量<b class='flag-5'>数据处理</b>挑战?

    缓存对大数据处理的影响分析

    缓存对大数据处理的影响显著且重要,主要体现在以下几个方面: 一、提高数据访问速度 在大数据环境数据存储通常采用分布式存储系统,
    的头像 发表于 12-18 09:45 163次阅读

    cmp在数据处理的应用 如何优化cmp性能

    CMP在数据处理的应用 CMP(并行处理)技术在数据处理领域扮演着越来越重要的角色。随着数据量的爆炸性增长,传统的串行
    的头像 发表于 12-17 09:27 278次阅读

    pds在数据处理的应用 pds支持的文件格式有哪些

    PDS在数据处理中有广泛的应用,同时它也支持多种文件格式。以下是对这两个方面的介绍: PDS在数据处理的应用 电力系统自动化数据交换 : PDS(Power Dispatch Sys
    的头像 发表于 12-05 10:43 283次阅读

    上位机实时数据处理技术 上位机在智能制造的应用

    。这种技术对于工业自动化、智能制造等领域至关重要。 在上位机实时数据处理,关键技术包括数据采集、数据处理数据可视化、
    的头像 发表于 12-04 10:29 548次阅读

    eda中常用的数据处理方法

    探索性数据分析(EDA)是一种统计方法,用于使用统计图表、图形和计算来发现数据的模式、趋势和异常值。在进行EDA时,数据处理是至关重要的,因为它可以帮助我们更好地理解
    的头像 发表于 11-13 10:57 343次阅读

    海量数据处理需要多少RAM内存

    处理海量数据时,内存的大小直接影响到数据的读写速度和整体处理能力。更多的内存意味着可以将更多的数据缓存到内存
    的头像 发表于 11-11 09:56 341次阅读

    FPGA在数据处理的应用实例

    FPGA(现场可编程门阵列)在数据处理领域有着广泛的应用,其高度的灵活性和并行处理能力使其成为许多高性能数据处理系统的核心组件。以下是一些FPGA在数据处理
    的头像 发表于 10-25 09:21 428次阅读

    实时数据处理的边缘计算应用

    实时数据处理的边缘计算应用广泛,涵盖了多个行业和领域。以下是一些典型的应用场景: 一、工业制造 在工业制造领域,边缘计算技术被广泛应用于生产线上的设备监控、数据处理和实时控制。通过在生产线上安装
    的头像 发表于 10-24 14:11 411次阅读

    岩土工程监测振弦采集仪数据处理与解读的挑战与方法

    岩土工程监测振弦采集仪数据处理与解读的挑战与方法 岩土工程监测是确保工程安全的重要环节,而振弦采集仪是岩土工程监测中常用的一种设备。振弦采集仪通过测量土体的振动响应,可以获取土体的力学性质和结构
    的头像 发表于 06-03 13:59 294次阅读
    岩土工程监测<b class='flag-5'>中</b>振弦采集仪<b class='flag-5'>数据处理</b>与解读的挑战与方法

    振弦采集仪在岩土工程监测数据处理与结果展示

    振弦采集仪在岩土工程监测数据处理与结果展示 河北稳控科技振弦采集仪是岩土工程监测中常用的一种设备,用于采集地下土体振动信号,通过对数据处理与结果的展示,可以有效地评估土体的动力特
    的头像 发表于 05-14 16:41 292次阅读
    振弦采集仪在岩土工程监测<b class='flag-5'>中</b>的<b class='flag-5'>数据处理</b>与结果展示

    工程监测振弦采集仪在振动监测的应用与数据处理技术

    工程监测振弦采集仪在振动监测的应用与数据处理技术 振弦采集仪是一种用于振动监测和分析的仪器设备。它采用振弦传感器作为振动信号的采集元件,可以实时测量结构物或设备的振动状态,并将采集到的振动数据进行
    的头像 发表于 04-07 13:59 552次阅读
    工程监测振弦采集仪在振动监测<b class='flag-5'>中</b>的应用与<b class='flag-5'>数据处理</b>技术

    工程监测领域振弦采集仪的数据处理与分析方法探讨

    工程监测领域振弦采集仪的数据处理与分析方法探讨 在工程监测领域,振弦采集仪是常用的一种设备,用于测量和记录结构物的振动数据数据处理和分析是使用振弦采集仪得到的数据的重要环节,可以帮助
    的头像 发表于 01-10 14:44 442次阅读
    工程监测领域振弦采集仪的<b class='flag-5'>数据处理</b>与分析方法探讨

    工程监测振弦采集仪的数据处理方法研究

    工程监测振弦采集仪的数据处理方法研究 工程监测振弦采集仪的数据处理方法研究是针对振弦采集仪所采集到的数据进行分析和
    的头像 发表于 01-09 15:10 372次阅读
    工程监测<b class='flag-5'>中</b>振弦采集仪的<b class='flag-5'>数据处理</b>方法研究

    数据处理

    初学者想请教一下大家,采集的噪声信号,想要对采集到的数据累计到一定数量再进行处理,计划每隔0.2秒进行一次数据处理,(得到均方根值等一些特征值)请问大家有什么方法可以实现
    发表于 01-07 10:11