0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

用这么久pandas才知道 category里的这些坑!

数据分析与开发 来源:数据分析与开发 作者:数据分析与开发 2021-05-14 10:30 次阅读

pandas有一个特别的数据类型叫category,如其名一样,是一种分类的数据类型。category很娇气,使用的时候稍有不慎就会进坑,因此本篇将介绍在pandas中,

1. 为什么要使用category?

2. 以及使用category时需要注意的一些坑!

文中使用的pandas版本为1.2.3,于今年2021年3月发布的。

为什么使用category数据类型?

总结一下,使用category有以下一些好处:

内存使用情况:对于重复值很多的字符串列,category可以大大减少将数据存储在内存中所需的内存量;

运行性能:进行了一些优化,可以提高某些操作的执行速度

算法库的适用:在某些情况下,一些算法模型需要category这种类型。比如,我们知道lightgbm相对于xgboost优化的一个点就是可以处理分类变量,而在构建模型时我们需要指定哪些列是分类变量,并将它们调整为category作为超参数传给模型。

一个简单的例子。

df_size = 100_000

df1 = pd.DataFrame(

{

“float_1”: np.random.rand(df_size),

“species”: np.random.choice([“cat”, “dog”, “ape”, “gorilla”], size=df_size),

}

df1_cat = df1.astype({“species”: “category”})

创建了两个DataFrame,其中df1包含了species并且为object类型,df1_cat复制了df1,但指定了species为category类型。

》》 df1.memory_usage(deep=True)

Index 128

float_1 800000

species 6100448

dtype: int64

就内存使用而言,我们可以直接看到包含字符串的列的成本是多高。species列的字符串大约占用了6MB,如果这些字符串较长,则将会更多。

》》 df1_cat.memory_usage(deep=True)

Index 128

float_1 800000

species 100416

dtype: int64

再看转换为category类别后的内存使用情况。有了相当大的改进,使用的内存减少了大约60倍。没有对比,就没有伤害。

这就是使用category的其中一个好处。但爱之深,责之切呀,使用它要格外小心。

使用category的一些坑!

一、category列的操作

好吧,这部分应该才是大家较为关心的,因为经常会遇到一些莫名其妙的报错或者感觉哪里不对,又不知道问题出在哪里。

首先,说明一下:使用category的时候需要格外小心,因为如果姿势不对,它就很可能变回object。而变回object的结果就是,会降低代码的性能(因为强制转换类型成本很高),并会消耗内存。

日常面对category类型的数据,我们肯定是要对其进行操作的,比如做一些转换。下面看一个例子,我们要分别对category和object类型进行同样的字符串大写操作,使用accessor的.str方法。

在非category字符串上:

》》 %timeit df1[“species”].str.upper()

25.6 ms ± 2.07 ms per loop (mean ± std. dev. of 7 runs, 10 loops each)

在category字符串上:

》》 %timeit df1_cat[“species”].str.upper()

1.85 ms ± 41.1 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)

结果很明显了。在这种情况下,速度提高了大约14倍(因为内部优化会让.str.upper()仅对分类的唯一类别值调用一次,然后根据结果构造一个seires,而不是对结果中的每个值都去调用一次)。

怎么理解?假设现有一个列叫animal,其类别有cat和dog两种,假设样本为10000个,4000个cat和6000个dog。那么如果我用对category本身处理,意味着我只分别对cat和dog两种类别处理一次,一共两次就解决。如果对每个值处理,那就需要样本数量10000次的处理。

尽管从时间上有了一些优化,然而这种方法的使用也是有一些问题的。。。看一下内存使用情况。

》》 df1_cat[“species”].str.upper().memory_usage(deep=True)

6100576

意外的发现category类型丢了。。结果竟是一个object类型,数据压缩的效果也没了,现在的结果再次回到刚才的6MB内存占用。

这是因为使用str会直接让原本的category类型强制转换为object,所以内存占用又回去了,这是我为什么最开始说要格外小心。

解决方法就是:直接对category本身操作而不是对它的值操作。 要直接使用cat的方法来完成转换操作,如下。

%timeit df1_cat[“species”].cat.rename_categories(str.upper)

239 µs ± 13.9 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)

可以看到,这个速度就更快了,因为省去了将category类别转换为object的时间,并且内存占用也非常少。因此,这才是最优的做法。

二、与category列的合并

还是上面那个例子,但是这次增加了habitat一列,并且species中增加了sanke。

df2 = pd.DataFrame(

{

“species”: [“cat”, “dog”, “ape”, “gorilla”, “snake”],

“habitat”: [“house”, “house”, “jungle”, “jungle”, “jungle”],

}

df2_cat = df2.astype({“species”: “category”, “habitat”: “category”})

和前面一样,创建该数据集的一个category版本,并创建了一个带有object字符串的版本。如果将两个object列合并在一起的,没什么意思,因为大家都知道会发生什么,object+ object= object而已。

把object列合并到category列上

还是一个例子。

》》 df1.merge(df2_cat, on=“species”).dtypes

float_1 float64

species object

habitat category

dtype: object

左边的df1中species列为object,右边的df2_cat中species列为category。我们可以看到,当我们合并时,在结果中的合并列会得到category+ object= object。

这显然不行了,又回到原来那样了。我们再试下其他情况。

两个category列的合并

》》 df1_cat.merge(df2_cat, on=“species”).dtypes

float_1 float64

species object

habitat category

dtype: object

结果是:category+ category= object?

有点想打人了,但是别急,我们看看为啥。

在合并中,为了保存分类类型,两个category类型必须是完全相同的。 这个与pandas中的其他数据类型略有不同,例如所有float64列都具有相同的数据类型,就没有什么区分。

而当我们讨论category数据类型时,该数据类型实际上是由该特定类别中存在的一组值来描述的,因此一个类别包含[“cat”, “dog”, “mouse”]与类别包含[“cheese”, “milk”, “eggs”]是不一样的。上面的例子之所以没成功,是因为多加了一个snake。

因此,我们可以得出结论:

category1+ category2=object

category1+ category1=category1

因此,解决办法就是:两个category类别一模一样,让其中一个等于另外一个。

》》 df1_cat.astype({“species”: df2_cat[“species”].dtype}).merge(

df2_cat, on=“species”

).dtypes

float_1 float64

species category

habitat category

dtype: object

三、category列的分组

用category类列分组时,一旦误操作就会发生意外,结果是Dataframe会被填成空值,还有可能直接跑死。。

当对category列分组时,默认情况下,即使category类别的各个类不存在值,也会对每个类进行分组。

一个例子来说明。

habitat_df = (

df1_cat.astype({“species”: df2_cat[“species”].dtype})

.merge(df2_cat, on=“species”)

house_animals_df = habitat_df.loc[habitat_df[“habitat”] == “house”]

这里采用habitat_df,从上面例子得到的,筛选habitat为house的,只有dog和cat是house,看下面分组结果。

》》 house_animals_df.groupby(“species”)[“float_1”].mean()

species

ape NaN

cat 0.501507

dog 0.501023

gorilla NaN

snake NaN

Name: float_1, dtype: float64

在groupby中得到了一堆空值。默认情况下,当按category列分组时,即使数据不存在,pandas也会为该类别中的每个值返回结果。略坑,如果数据类型包含很多不存在的,尤其是在多个不同的category列上进行分组,将会极其损害性能。

因此,解决办法是:可以传递observed=True到groupby调用中,这确保了我们仅获取数据中有值的组。

》》 house_animals_df.groupby(“species”, observed=True)[“float_1”].mean()

species

cat 0.501507

dog 0.501023

Name: float_1, dtype: float64

四、category列的索引

仍以上面例子举例,使用groupby-unstack实现了一个交叉表,species作为列,habitat作为行,均为category类型。

》》 species_df = habitat_df.groupby([“habitat”, “species”], observed=True)[“float_1”].mean().unstack()

》》 species_df

species cat ape dog gorilla

habitat

house 0.501507 NaN 0.501023 NaN

jungle NaN 0.501284 NaN 0.501108

这好像看似也没什么毛病,我们继续往下看。为这个交叉表添加一个新列new_col,值为1。

》》 species_df[“new_col”] = 1

TypeError: ‘fill_value=new_col’ is not present in this Categorical‘s categories

正常情况下,上面这段代码是完全可以的,但这里报错了,为什么?

原因是:species和habitat现在均为category类型。使用.unstack()会把species索引移到列索引中(类似pivot交叉表的操作)。而当添加的新列不在species的分类索引中时,就会报错。

虽然平时使用时可能很少用分类作为索引,但是万一恰巧用到了,就要注意一下了。

总结

总结一下,pandas的category类型非常有用,可以带来一些良好的性能优势。但是它也很娇气,使用过程中要尤为小心,确保category类型在整个流程中保持不变,避免变回object。本文介绍的4个点注意点:

category列的变换操作:直接对category本身操作而不是对它的值操作。这样可以保留分类性质并提高性能。

category列的合并:合并时注意,要保留category类型,且每个dataframe的合并列中的分类类型必须完全匹配。

category列的分组:默认情况下,获得数据类型中每个值的结果,即使数据中不存在该结果。可以通过设置observed=True调整。

category列的索引:当索引为category类型的时候,注意是否可能与类别变量发生奇怪的交互作用。

编辑:jq

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 数据
    +关注

    关注

    8

    文章

    7002

    浏览量

    88941
  • 数据存储
    +关注

    关注

    5

    文章

    970

    浏览量

    50894
  • 算法库
    +关注

    关注

    0

    文章

    4

    浏览量

    1524

原文标题:用了一年 pandas,才知道 category 的这些坑!

文章出处:【微信号:DBDevs,微信公众号:数据分析与开发】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    RAPIDS cuDF将pandas提速近150倍

    在 NVIDIA GTC 2024 上,NVIDIA 宣布,RAPIDS cuDF 当前已能够为 950 万 pandas 用户带来 GPU 加速,且无需修改代码。
    的头像 发表于 11-20 09:52 163次阅读
    RAPIDS cuDF将<b class='flag-5'>pandas</b>提速近150倍

    aic23b的AD和DA输入输出数据总在64000左右,AD设置的是16位,为什么进来的数都这么大,是不是配置不对?

    你好,aic23b的AD和DA输入输出数据总在64000左右,AD设置的是16位,为什么进来的数都这么大,是不是配置不对? 还有就是,输入电压和采样值之间的对应关系是什么?
    发表于 11-05 06:53

    opa627BP用来做前级放大,接地电阻多少合适?反馈电阻多少合适?

    你好,opa627BP 用来做前级放大,接地电阻多少合适,反馈电阻多少合适,谢谢
    发表于 10-31 07:38

    CATEGORY5e是什么网线

    CATEGORY 5e即CAT5e,指的是超五类网线。它是计算机网络中常用的一种双绞式电缆,也是数据、话音等信息通信业务使用的多媒体线材。以下是关于超五类网线的详细介绍: 一、标识与类型 标识
    的头像 发表于 10-23 10:23 900次阅读

    使用PP3调试TAS5766M,初始化要超过三分钟,是什么原因导致的?

    使用PP3调试 TAS5766M,为什么初始化要这么久,超过3分钟,这不合理,烦请帮忙看一下是什么原因
    发表于 10-16 06:48

    4G模组SIM卡电路很简单,但也要注意这些

    ​上次水SIM卡相关的文章,还是[上一次]; 上一篇文章吹牛说, 跟SIM卡相关的问题还有很多 ,目的是为下一篇文章埋下伏笔;伏笔埋是埋下了,但如果债老是不还,心里的石头就总悬着,搞不好老板还要扣
    的头像 发表于 09-30 07:01 744次阅读
    4G模组SIM卡电路很简单,但也要注意<b class='flag-5'>这些</b><b class='flag-5'>坑</b>

    为什么THS3001增益带宽这么低?

    电路图如上,我是根据手册的电路改的,我把其中的滑动变阻器调为5倍固定增益,本来手册的图是有50ohm的输出阻抗,我后面接的是射频头有50omh的阻抗,但是我测试电路100mv的输入电压
    发表于 08-23 08:29

    TL082I运放做了一个绝对值电路,有什么办法可以缩短触发的延迟时间?

    150uS,请群的大神帮忙分析下有什么办法可以缩短触发的延迟时间?是否TL082的处理时间就需要这么久,还是电路过于复杂导致处理时间延长?
    发表于 08-12 07:06

    读了这么久的增益带宽积竟然错了?!

    。 这里有一个误区,也是容易让人迷惑的地方,虽然叫做增益带宽积,但是做计算时的单位是放大倍数,而不是dB,所以增益带宽积其实是等于开环放大倍数*频率。 下面咱们直接通过一个示例理解增益带宽积。下图是OPA2333手册的增益带宽积GBW及其解读。 手册中的GBW是350KHz,这是什么
    的头像 发表于 07-09 08:45 563次阅读
    读了<b class='flag-5'>这么久</b>的增益带宽积竟然错了?!

    ESP32-WROVER-B 16M固件的WiFi参数怎么设置算最优?

    有哪位大佬知道WiFi参数怎么设置算最优? 比如以下这些 CONFIG_ESP32_WIFI_STATIC_RX_BUFFER_NUM
    发表于 06-24 06:02

    新光光电:拟转让控股子公司中新光12.5%股权

    新光光电公告,公司拟向绵阳中光谷科技有限责任公司转让公司持有的控股子公司四川中新光科技有限公司12.5%股权,交易金额160.54万元。
    的头像 发表于 05-27 14:28 703次阅读

    火了这么久的大模型,到底能为模组产业带来什么?

    在AIGC时代浪潮下,美格智能也与芯片厂商及众多下游客户协同,不断开展AIGC应用的研发和推广,通过大模型与千行百业的深度融合,为传统IoT、车载、机器人等行业创造新的价值。
    的头像 发表于 03-15 17:43 307次阅读

    火了这么久的大模型,到底能为模组产业带来什么?

    全球新一轮产业技术变革加速来临,大模型作为人工智能发展的核心引擎,正引发一场全新的工业革命,可能彻底改变人类社会的生产和生活方式。▌大模型:从横空出世到百花齐放回顾上一年度,ChatGPT横空出世,在全球范围内掀起AIGC的发展热潮。2024年,OpenAI继续推出最新研究成果视频生成大模型Sora,代表着大模型从静态图像生成到动态视频创作的飞跃。近期,An
    的头像 发表于 03-15 17:34 640次阅读
    火了<b class='flag-5'>这么久</b>的大模型,到底能为模组产业带来什么?

    ADUCM320i上电后需要等待大概60秒,请问什么情况下会导致上电需要等待这么久

    相同代码在EVAL-ADUCM320i上运行正常。但是在自己的PCBA上面上电需要等待大约60s,或者上电后P0.4(SCL0)给一个低电平,MCU开始执行代码。 上电后MCU可以马上通过IIC下载代码,但不执行已经烧录进去的代码,请问什么情况会导致上电需要等待这么久
    发表于 01-11 08:06

    华秋软件登录需要在上网行为管理开放哪些网址,

    我公司工程同事需要用到华秋软件,以前一直没有问题,最近升级到新版本,发现需要登录。因为工程的电脑只能上微信和收发邮件,所以他们没有办法。 我想问一下,需要在上网行为管理开放哪些网址,可以让华秋
    发表于 12-26 11:17